Economie du document (Bloc-notes de Jean-Michel Salaün)

Repérage de données sur l'économie des documents dans un environnement numérique

Aller au contenu | Aller au menu | Aller à la recherche

mardi 31 août 2010

Economie de surveillance

Le Wall Street Journal a publié cet été une série de cinq articles sur la surveillance et le repérage des internautes. Ces articles sont aussi importants par les informations qu’ils apportent, que par le statut du journal qui les publie.

1. Julia Angwin, “The Web's New Gold Mine: Your Secrets,” wsj.com, Juillet 30, 2010, rub. What They Know, ici.

2. Nick Wingfield, “Microsoft Quashed Effort to Boost Online Privacy,” wsj.com, Août 2, 2010, rub. What They Know, ici.

3. Justin Scheck, “Stalkers Exploit Cellphone GPS,” wsj.com, Août 3, 2010, rub. What They Know, ici.

4. Emily Steel et Julia Angwin, “On the Web's Cutting Edge, Anonymity in Name Only,” wsj.com, Août 4, 2010, rub. What They Know, ici.

5. Jessica E. Vascellaro, “Google Agonizes on Privacy as Ad World Vaults Ahead,” wsj.com, Août 10, 2010, rub. What They Know, ici.

Voici quelques notes et commentaires article par article. Attention, il s’agit de ma lecture et de mon interprétation des articles et non d’un compte-rendu fidèle, j’y ai ajouté commentaires, liens et réflexions de mon cru. Le sous-titre représente la principale leçon que j’en ai tirée.

1. L’économie souterraine du ciblage

Le WSJ s’intéresse dans cet article introductif aux logiciels espions.

Du côté technique, les initiés n’apprendront pas grand-chose. J’avais déjà rendu compte d'une enquête sur les 50 sites les plus populaires des US (là où on trouvera aussi le lien vers l'enquête de AT&T sur 1.000 sites populaires citée dans l'article). Le journal a fait une expérience similaire avec un ordinateur test. Il a constaté que les 50 sites les plus fréquentés avaient déposé 3184 éléments de surveillance au total, la plupart du temps sans prévenir, une douzaine de sites en a déposé plus de cent, Wikipédia aucun. Un petit 1/3 sont inoffensifs, par exemple pour se rappeler son mot de passe. Mais les logiciels espions ne s’en tiennent pas à des cookies et sont de plus en plus sophistiqués. Certains, par exemple, suivent ce que font les gens en temps réel, et évaluent instantanément le lieu, les revenus, les comportements d’achat et même les conditions médicales des personnes. Certains se réimplantent automatiquement quand les usagers cherchent à s’en débarrasser, notamment en profitant des fonctionnalités de Flash d’Adobe. La relation entre les profils et les noms des personnes n’est pas faite. Les profils sont, en toute rigueur, ceux des machines des utilisateurs.

Plus inédits sont les éléments, même partiels, donnés sur cette économie. Les profils des individus ainsi recueillis, constamment actualisés, sont achetés et vendus sur une sorte de bourse qui a pris son envol dans les derniers 18 mois. Le journal a ainsi identifié plus de 100 sociétés d’intermédiaires en concurrence sur les données comportementales et d’intérêts des individus. Parmi celles-ci la société BlueKai surveille, par exemple, les visiteurs de eBay.com ou de Expedia.com en temps réel et ces données sont revendues sur son site. Plus de 50 millions d’informations sur les habitudes de navigation des internautes sont vendues chaque jour à 1/10 de centime de $ pièce. On considère que la publicité ciblée a fait un chiffre d’affaires de 23 Milliards de $ l’année dernière.

Ces données peuvent être une rentrée supplémentaire pour des sites qui ne peuvent se financer complètement par la vente d’espace publicitaire. Il semble néanmoins que, naïfs, inconscients ou complices passifs, nombre de sites ne sont pas au courant des logiciels espions qu’ils transmettent et qui sont initiés par des entreprises-tiers d’un nouveau genre où règnent les statisticiens. Par ailleurs, si aux États-Unis l’utilisation des cookies est réglementée, les autres logiciels espions, bien plus intrusifs ne le sont pas, pas encore.

In fine, l’objectif est, bien sûr, de cibler au plus près le consommateur. Voici trois citations illustratives de l’objectif des responsables de ces sociétés : « Les annonceurs veulent accéder aux personnes, pas aux pages web » ; « Quand une publicité est correctement ciblée, elle cesse d’être une publicité pour devenir une importante information » ; « Nous dirigeons les gens vers différentes files de l’autoroute ». Mais, cette détermination a des limites. Il n’est pas sûr que nous voulions rester toujours dans les mêmes rails et nous sommes, comme tous les humains, heureusement versatiles.

2. L’importance du navigateur et des choix techniques

Un important débat a eu lieu à Microsoft au moment de la mise au point de Internet Explorer 8 entre les ingénieurs et les responsables de la stratégie. Les premiers avaient imaginé un navigateur qui protégeait par défaut la vie privée des internautes en les prévenant des logiciels intrusifs et leur donnant la possibilité de les bloquer. Mais suite à des pressions internes de nouveaux recrutés issus de la publicité sur le web et de la consultation des représentants de cette branche. La tendance a été renversée, rendant quasi-impossible cette protection, qui n’existe plus par défaut et qu’il faut réenclencher à chaque ouverture du navigateur.

L’épisode est intéressant à double titre. D’une part, il illustre combien la logique économique du web est radicalement différente de celle de l’économie classique des logiciels, culture initial de MSN, et repose exclusivement sur la publicité ciblée. D’autre part, il montre le rôle essentiel dans cette économie du navigateur dont les choix techniques ne sont pas gravés dans le marbre.

MSN, malgré tout, cherche encore à se démarquer de ses concurrents sur le web en appliquant une politique plus rigoureuse sur les données qu’il collecte, comme le montre cet article du journal de la firme : Lee Pender, “Privacy: What Does Microsoft Know About You?”, Redmondmag.com, Janvier 7, 2010, ici.

L’épisode peut aussi faire réfléchir à la stratégie de Mozilla avec Firefox, drapé dans la vertu du logiciel libre, mais ne défendant pas mieux les données privées..

3. Cellulaire ou mobile

En Amérique du nord, on dit « téléphone cellulaire », en Europe « téléphone mobile », ou plus rapidement cellulaire et mobile. La différence sémantique est ironique, l’un insiste sur le repérage, le quadrillage voire l’enfermement, tandis que l’autre pointe la liberté, le déplacement. Sans doute, il s’agit de l’envers et du revers d’une même médaille, mais le pile et le face sont pour le moins contrastés. Une même technologie, un même service est désigné selon les continents par des qualificatifs opposés. Ici, je garderai « cellulaire », plus représentatif des propos du WSJ. Les compagnies de téléphone savent, en effet, où se trouvent leurs abonnés à trente mètres près.

L’article met en balance deux conséquences de ce repérage : d’un côté il indique la possibilité de repérer des victimes d’accidents ou de délits ou encore de sécuriser les enfants, qui justifie officiellement la réglementation US d’installation d’une puce GPS dans tous les téléphones cellulaires ; mais il insiste surtout sur les dangers du harcèlement et de la surveillance domestique, multipliant les exemples de femmes battues, retrouvées par leur mari grâce au traçage familial de leur téléphone portable proposé aux abonnés d’un cellulaire. En réalité, les enjeux me paraissent ailleurs : sur la surveillance policière ou le contrôle social d’un côté, la publicité contextualisée, de l’autre

Un chercheur d’une société de sécurité informatique, Don Bailey d’ISec Partners, a montré qu’il suffisait du numéro de cellulaire de la personne, d’un ordinateur, de quelques connaissances sur la technologie des cellulaires pour surveiller n’importe qui. Pour les paranos ou les incrédules, toutes les explications du chercheur sont ici . Il y explique comment il est possible de savoir, pour quelques cents et, tout de même, avec quelques compétences informatiques : qui vous êtes, quels sont les membres de votre famille, vos amis, vos collègues, où vous êtes, où ils sont, ce que vous êtes probablement en train de faire, pourquoi.. et ce que vous allez probablement faire ensuite.

4. Anonymat et personnalisation

Cet article donne une illustration concrète de ce qu’il est possible aujourd’hui de faire avec les données collectées. Il prend l’exemple de la société (x+1) qui a trouvé son modèle d’affaires en 2008 après de nombreux déboires et changements auparavant.

En utilisant les bases de données construites comme indiqué dans le premier article, la société est capable instantanément de donner le profil de consommation de n’importe quel internaute. Ils n’ont pas a priori son nom, mais croisent les références des données, avec la propriété des maisons, le revenu familial, le statut familial, les restaurants habituels, entre autres. Et en utilisant les probabilités, ils font des hypothèses sur les penchants de l’internaute. Le directeur de la société indique : « Jamais, nous ne savons rien sur une personne ».

Sans doute, il leur arrive de se tromper, mais leurs propositions sont suffisamment fiables pour qu’ils aient trouvé un marché auprès des vendeurs de cartes de crédit qui évaluent ainsi en temps réel la fiabilité de leurs nouveaux clients. Comme le dit le journaliste : « en résumé, les sites web ont gagné la possibilité de décider si vous serez un bon consommateur ou non, avant même que vous ne leur disiez quoi que ce soit sur vous-même ». Les conseils d’Amazon à partir de leur base de données maison sont largement dépassés. Ces techniques ouvrent la possibilité de construire un commerce personnalisé où produits, services ou même prix sont proposés selon le profil de chacun.

Mais la préservation de l’anonymat est toute relative et, par ailleurs même si ces sociétés disent ne pas faire de discrimination selon les genres, les profils ethniques, les handicaps qui tombent sous le coup de la loi, de tels profilages peuvent conduire facilement à des dérives éthiques. Ainsi, comme le titre de l’article l’indique, cette économie du web est limite.

5. Contextuel ou comportemental

Le dernier article est celui qui m'a le plus intéressé. Il s'appuie sur un document interne de la société, remue-méninges qui montre les hésitations de Google pour l'exploitation des données qu'il récolte sur les internautes face à la montée de la concurrence. De part sa domination du marché de la publicité en ligne, la position de Google est déterminante à la fois vis-à-vis de ses concurrents et aussi vis-à-vis de l'évolution de la réglementation que chacun sent proche.

La firme détient par son moteur la plus grosse base de données sur les intentions des internautes, mais a résisté jusqu'à présent à surveiller ces derniers sans leur consentement pour préserver son image. Le savoir faire de Google est d'abord contextuel, une expertise de traitement des textes, aussi bien les requêtes des internautes que les documents publiés sur le web et non comportemental, une connaissance des réactions des personnes. Cette dernière expertise est celle de FaceBook ou des jeunes firmes présentés dans les autres articles de la série. D'un côté une expertise linguistique, de l'autre une expertise sociologique. C'est aussi dans ce contexte que l'on peut relire le slogan « don't be evil », on peut chez Google manipuler les mots, pas les personnes. Les débats internes à Google sur l'utilisation des cookies par exemple sont très vifs et ne sont pas sans rappeler les débats de MSN présentés dans un autre article de la série. Dans les deux cas le dilemme est le même : comment préserver la culture de l'entreprise tout en faisant face à la concurrence ?

Une animation très claire, qui accompagne l'article, montre combien aujourd'hui les données engrangées sont nombreuses, recueillies par diverses services de Google et sont encore cloisonnées pour leur exploitation publicitaire. Reste que l'article ne dit pas à quoi servent l'important stock de données collectées en dehors d'une utilisation pour la publicité, par exemple par la barre d'outil de Google.

Suite notamment à l'achat de Double-Click en 2007, à la montée de la concurrence dont Facebook, il semble que la position de la firme a évolué sur le cookies. D'ailleurs, l'enquête déjà citée () montrait que Google est très présent dans la surveillance. Une stratégie pour sortir du dilemme par le haut serait de devenir une bourse d'échanges de données ou une régie de publicité comportementale ciblée.

Actu 24 septembre 2010

Voir aussi :

The convergence of Google, government and privacy - O'Reilly Radar, ici.

Actu du 7 octobre 2010

Comme prévu, la régulation va très très vite dans ce domaine :

“Publicité ciblée : les Américains aussi se mettent à l'abri - Etreintes digitales,” ici.

Actu du 13 octobre 2010

Conformément à l'esprit français dans la continuité de la CNIL, l'argumentaire est plutôt mis ici sur l'éthique et non sur le commerce. Deux références :

Le livre de D. Kaplan, présentation ici

La signature de chartes sur le droit à l'oubli : pour la publicité ciblée (ici) et dans les sites collaboratifs (). Signatures refusées par Facebook et Google.. entre autres.

Dans ce domaine, l'autodiscipline est peu efficiente, seule compte la norme comme le propose Helen Bissenbaum ().

Actu du 18 oct 2010

Le WSJ continue à creuser le même sillon en en faisant une rubrique régulière What they know ici et notamment cet article :

Julia Angwin et Steve Stecklow, “'Scrapers\' Dig Deep for Data on Web,” wsj.com, Octobre 12, 2010, ici .

Actu du 26 octobre 2010

Voir ce nouvel article sur une levée de fonds de la société Cloudera.

Actu du 27 octobre 2010

A suivre :

“Confidentialité : Google poursuivi en justice aux Etats-Unis,” Le Monde, Octobre 27, 2010, ici.

mercredi 28 juillet 2010

Économie immatérielle

Autre suggestion de lecture longue pour l'été :

Olivier Bomsel, L'économie immatérielle : Industries et marchés d'expériences, Nrf Essais (Gallimard, 2010). (itw Télérama).

Par une relecture d'auteurs, classiques et plus récents, ce livre ne suggère pas moins qu'une révision du sens de l'histoire de la pensée économique et, sans doute, de l'économie elle-même. Partant du principe que la science économique depuis A. Smith s'intéressait à «l'économie des choses» et à la division du travail ou l'équilibre des marchés, il montre qu'une rupture du raisonnement s'est opérée par la proposition de R. Coase en 1937 dans son célèbre article The nature of the firm (pdf). Coase suggère de prendre en compte les coûts de transaction pour expliquer le partage de la production et la distribution des biens entre un marché d'un côté et des organisations de l'autre. Dès lors, la division du travail pour améliorer la productivité n'est plus l'explication essentielle du développement économique, mais il faut plutôt la chercher du côté des conventions ou des contrats qui se mettent en place, souvent par écrit, pour configurer l'économie. Mieux, avant même de contracter, les protagonistes doivent se renseigner sur les modalités des diverses formules (marché ou organisation) pour faire un choix éclairé, tout ce processus est informationnel et coûteux. Ainsi nous serions passés progressivement d'«une économie des choses» à «une économie immatérielle».

Autre proposition de l'auteur : dans cette économie, les effets de réseaux sont importants, et donc les externalités, positives ou négatives, dont profitent ou que subissent chaque consommateur individuel du fait de la consommation d'un bien ou d'un service par d'autres individus. Les effets de réseaux sont particulièrement importants dans les biens informationnels qui se trouvent maintenant au cœur de l'économie. O. Bomsel suggère que les institutions mises en place pour «internaliser» ces effets, c'est à dire les maîtriser et les réguler pour le bien de la collectivité soient intégrées dans le raisonnement économique.

Je ne saurai ici relever tous les points stimulants de ce livre qui a le mérite de sortir du discours convenu sur l'économie numérique et de faire réfléchir. Pour alimenter sa thèse, O. Bomsel relit de nombreux classiques de l'économie. C'est très salutaire et très éclairant, même si on peut s'étonner de l'absence d'H. Simon et la rationalité limitée (wkp) ou encore O. Williamson sur les coûts de transaction (wkp). De plus, il ne semble pas opérer une distinction nette entre le rôle de l'information dans l'économie et les activités économiques consacrées à l'information (industries culturelles, industries de l'information). Sans doute, la thèse d'une «économie immatérielle» suggère que toutes les activités économiques sont consacrées à l'information, mais je ne suis pas vraiment sûr, même si la notion de «biens d'expérience» ou la signification des consommations s'étend que les particularités des branches jusqu'ici spécialisées dans ce domaine se retrouvent dans le reste de l'économie.

L'auteur m'a beaucoup moins convaincu lorsqu'il s'éloigne de l'économie elle-même pour la psychanalyse, la linguistique ou la sémiotique. Il cite J. Lacan ou M. Foucault, mais ignore J. Baudrillard (celui du Système des objets ou de Pour une critique de l'économie politique des signes) ou encore G. Debord, qui auraient pu enrichir ou nuancer ses propos. Et surtout il méconnait les travaux en sciences de l'information, et notamment les interrogations sur la notion d'information et celle de document, à part une référence au livre de 1991 sur l'histoire de la signature de B. Fraenkel (pour un travail plus récent du même auteur sur le sujet voir cairn). Pourtant, la question qu'il pose est bien celle du rôle prééminent dans l'économie de «l'information consignée», l'objet premier des sciences de l'information.

Sur ces dimensions, l'auteur, fasciné par le livre Écrire à Summer de JJ Glassner sur l'invention de l'écriture cunéïforme, déduit dans un raccourci rapide que le numérique serait une nouvelle écriture universelle puisque tous les signes s'y réduisent à une série de 0 et de 1. Mais, si une formule comme «c'est la première fois depuis cinq mille ans qu'on invente une nouvelle écriture» peut séduire un journaliste de Télérama et frapper l'imagination des lecteurs, il s'agit là d'un contresens : le numérique n'est pas une nouvelle écriture. On peut objecter, en effet, de nombreux arguments à cette proposition. Tout d'abord, le 0 et le 1 sont des chiffres arabes écrits (wkp) dont l'universalité ne date pas d'hier. Ensuite, personne ne sait lire un programme informatique écrit en binaire, il s'agit en réalité de commandes envoyées à la machine et non une écriture. Les 0 et 1 ne représentent qu'une alternative de commande, oui ou non, fermé ou ouvert, et la grande innovation de ce côté est d'y avoir introduit le calcul booléen. Une écriture que personne ne peut lire n'a pas d'existence.

Ainsi, il serait plus juste de comparer la possibilité de consigner et reproduire tous les signes grâce à l'informatique à l'invention de l'imprimerie qu'à celle de l'écriture, une réelle innovation, une révolution même grâce aux possibilités quasi-infinies de reproduction, de combinaison et de transformation qu'ouvrent la puissance du calcul. C'est déjà beaucoup et n'est pas sans conséquence sur les écritures traditionnelles elles-même, comme en leur temps l'invention des caractères mobiles (voir, par exemple, les conséquences de la multiplication des SMS sur la connaissance des caractères chinois ici). Mais est-ce alors compatible avec la proposition de l'auteur d'une «économie immatérielle» ? Je ne sais.

mercredi 21 juillet 2010

Économie de la culture

L'été est propice aux lectures longues. Voici donc une première suggestion :

Xavier Greffe, “Introduction : L'économie de la culture est-elle particulière ?”, Revue d'économie politique Volume 120, n°. 1 (2010): 1-34. (Cairn)

Il existe en France une véritable école de pensée sur l' économie de la culture. Nombreuses sont les recensions disponibles sur le sujet. On en trouve même une remarquable sur la version française de Wikipédia. La page Économie de la culture (wkp) et la page Histoire de la pensée économique des arts et de la culture (wkp) sont particulièrement fournies et à jour, grâce à un wikipédien doctorant, Mathieu Perona (alias Bokken) qui alimente de plus un intéressant blogue (). Il suffit de comparer avec la version anglaise de Wikipédia (wkp) pour mesurer que, sur ce thème au moins, les internautes francophones sont mieux renseignés que les anglophones.

Du côté académique, le dernier numéro de la Revue d'économie politique (cairn) est entièrement consacré à l'économie de la culture et témoigne de cette vitalité. Son introduction par X. Greffe, un des pères fondateurs de l'analyse économique de la culture en France, est un modèle du genre. Il met d'abord en perspective les travaux depuis Adam Smith jusqu'à l'ouvrage de Baumol et Bowen, souvent considéré comme le point de départ d'une branche particulière de l'économie consacrée à la culture. Mais l'intérêt de l'article réside surtout dans le panorama critique qu'il propose des dernières avancées contemporaines, classées selon trois thèmes. Je reproduis ci-dessous les introductions des trois parties suivantes de son texte. Chaque partie est divisées en sous-parties, objet de développements précis, détaillés et denses.

La culture, part maudite de l’économie de marché ?

En 1966, l’ouvrage de Baumol et Bowen va développer le principe de la faible soutenabilité de la culture dans une économie de marché Baumol et Bowen, 1966. L’idée selon laquelle marché et culture font « mauvais ménage » n’était pas nouvelle, et si l’on prend un pays comme la France nombreux étaient déjà les plaidoyers pour considérer la culture comme un bien à part, créateur de bien être collectif, et devant à ce titre être rendu disponible à ceux que leurs revenus empêchaient d’y accéder. En outre, l’idée selon laquelle les artistes ne pouvaient vivre de leur art, souvent considérée comme l’expression la plus achevée du romantisme, était assez admise voire portée comme un drapeau tel le poète de Vigny dans Chatterton : « On ne fait de l’art que si l’on n’a pas besoin d’en vivre ! » (..)

Le cortège des extrêmes

Liée par essence à la création, ou la mise en place de produits, services ou interprétations nouvelles, le producteur de l’activité artistique ne sait pas comment elle sera reconnue ni validée. De son coté, le demandeur potentiel d’une telle activité en ignore la qualité faute de l’avoir expérimentée ou même identifiée. Des deux cotés du marché, l’incertitude est diffuse, mais il faut relever d’entrée qu’elle est ancrée dans le principe même de la l’activité artistique comme les observations de Schumpeter l’ont souligné plus haut. (..)

La culture comme levier du développement soutenable ? Back To the Market

Au cours des deux dernières décennies, des travaux se sont multipliés pour souligner les contributions que des activités culturelles pouvaient apporter au développement économique et social, épousant trois perspectives : la contribution de la créativité artistique à la qualité des produits et au renforcement de la compétitivité ; la satisfaction de besoins sociaux ; le renforcement de l’attractivité et de la dynamique des territoires. (..)

Le numérique n'est traité que dans une sous-partie de la deuxième partie. C'est normal, la culture ne se réduit pas à la culture numérique quoiqu'en pensent certains. Mais, inversement, les trois thèmes ci-dessus trouvent un écho dans les débats qui entourent le développement du numérique et bien des réflexions et des analyses des économistes de la culture pourraient utilement éclairer ceux qui tentent de décrypter l'économie numérique.

Actu du 24 août 2010

Voir aussi : Livre vert - «Libérer le potentiel des industries culturelles et créatives» (DGEC - Commission européenne, 2010). ici

jeudi 29 avril 2010

Économie de la conservation numérique

Le Blue Ribbon Task Force on Sustainable Digital Preservation and Access (que l'on peut traduire par le groupe de travail sur les politiques publiques de conservation et d'accès numérique), lancé il y a deux et demi par la NSF et la fondation Mellon (en collaboration avec la Bibliothèque du Congrès, JISC, le CLIR et les Archives nationales US) vient de publier son rapport final :

Blue Ribbon Task Force Final Report, Sustainable Economics for a Digital Planet: Ensuring Long-Term Access to Digital Information, February 2010. ici Le site propose aussi une bibliographie sur le sujet.

Le rapport n'aborde pas la technologie, mais les politiques et surtout pour le thème de ce blogue l'économie du processus. Il s'agit plus d'une étude théorique, un cadre de réflexion, que d'une analyse de terrain et on peut regretter l'absence de données empiriques qui auraient donné du corps et du poids aux arguments. Néanmoins les réflexions de cette nature sont rares et donc précieuses.

Pour ce billet, j'ai retenu les quatre caractéristiques économiques de la conservation numérique (en italique, ce sont des citations du rapport, Ch2 p.24-30 trad JMS) :

1. La demande pour une conservation numérique est une demande dérivée

Autrement dit, la demande n'est pas directe, on ne conserve pas pour conserver, mais pour donner accès à l'avenir à des informations numériques. Cette caractéristique n'est pas très originale, ni propre au numérique. C'est le cas de nombreux biens et services en économie, en réalité toutes les matières premières ou encore les biens intermédiaires. Mais elle a des conséquences, notamment que le marché n'est pas toujours capable de réguler cette activité :

Parce que la conservation est une demande dérivée, la décision de conserver viendra en définitive de la valeur perçue associée au matériel numérique dans le temps.

2. Les matériaux numériques sont des biens durables dépréciables

Un bien durable dépréciable est quelque chose qui dure longtemps en produisant de la valeur continuellement, mais la qualité et la quantité de cette production peut décliner si des actions ne sont pas engagées pour maintenir la viabilité ou la productivité du bien. (..)

Parce que le matériel numérique est un bien durable dépréciable, on doit faire continuellement des investissements pour leur maintenance si l'on peut soutenir leur possibilité de créer de la valeur dans le temps.

3. Les biens numériques sont des biens non-rivaux et autorisent les passagers clandestins

Cette caractéristique est bien connue des économistes de l'information.

Les biens numériques sont des biens non-rivaux, car il suffit qu'un acteur conserve un bien, il l'est pour toute intention ou objectifs conserver pour tous. Dans ces circonstances, l'incitation pour un seul acteur à assumer les coûts de la conservation est affaiblie, puisque les autres pourront profiter gratuitement des bénéfices.

4. La conservation numérique est un processus dynamique qui dépend du chemin suivi

Cette caractéristique est la plus originale et la plus spécifique au numérique et donc la plus intéressante. Dans l'analogique, le processus de conservation venait en fin du cycle de vie du bien, c'est à dire à la dernière étape du circuit classique de création-production-diffusion. Dans le numérique, chaque étape peut influer sur le processus de conservation et celui-ci implique des décisions à chaque stade.

Le fait que les décisions de conservation dépendent du chemin suivi signifie que les décisions peuvent influer à chaque moment les conditions futures et déterminer l'éventail des choix futurs.

Malgré l'intérêt de cette réflexion, il me semble qu'il lui manque le plus important, c'est à dire une interrogation sur la nature économique de la valeur de la conservation. Les propos sur cette question (p.20) auraient pu être plus approfondis, notamment en faisant référence par exemple à l'économie de l'assurance.

Le chapitre suivant présente la répartition des responsabilités et des rôles en soulevant les enjeux qui se posent à chaque étape.

L'ensemble est illustré sur quatre domaines d'application (ch4) : le discours scientifique, les données de la recherche, le contenu culturel commercial et le contenu produit collectivement sur le Web. L'intérêt du rapport est de fournir un cadre d'analyse et de réflexion.

jeudi 22 avril 2010

Grandes manoeuvres, toujours

Pour alimenter la réflexion des deux derniers billets, sur le positionnement stratégique des firmes et la nécessité de repenser les notions de liberté individuelles et sans doute aussi de service public dans le monde documentaire (ici et ), l'actualité est très riche en ce moment. Les annonces se succèdent. Je retiens sans avoir le temps de vraiment commenter :

  • Ce schéma présenté par le Journal du net (ici) qui compare l'évolution du cours de l'action de Google et celle de Apple. Clairement le second est en train de prendre la tête, au moins de l'avis des actionnaires.

Cours-Appel-vs-Google.jpg

Il y a comme un clin d'œil ironique de l'histoire à voir les nouveaux imprimeurs-libraires de l'ère numérique prendre la main sur le modèle éditorial.

  • L'analyse de l'évolution de la relation entre Google et les bibliothèques nord-américaines par Lionel Maurel () qui montre à la fois un assouplissement des positions de la firme, et donc quelques faiblesses d'une stratégie trop ambitieuse et parfois surinterprétée par les blogueurs, et une volonté de maintenir un contrôle strict des métadonnées, c'est-à-dire de la maîtrise de la circulation à l'intérieur du vaste texte constitué par l'ensemble des fonds numérisés, ce qui est bien le cœur de son métier.
  • L'évolution de la stratégie de Facebook (ici) qui confirme d'une part l'importance de la maîtrise du graphe social, ici passablement inquiétante, et, d'autre part en creux, la recherche toujours non aboutie d'un vrai business model. Facebook se trouve un peu dans la même situation de fragilité hégémonique que Google, mais sur un terrain différent et surtout le CA en moins.
  • Cette citation d'un billet d'A Mons () :

Donc, seules trois plates-formes ont connu des hausses significatives en 2009, soit Facebook (350 millions de membres et 45% d’augmentation du trafic dans la dernière année), Orkut (180 millions de membres et 187% d’augmentation) mais aussi et surtout Qzone ou QQ.com avec 200 millions de membres et presque invisible sur les radars occidentaux. C’est que cette dernière est chinoise et qu’elle montre un taux de croissance de presque du double de Facebook (87,6%). Ainsi, il s'opèrerait un partage de plus en plus significatif entre trois graphes, sans doute assez étanches les uns des autres pour des raisons culturelle, linguistique et démographique : occidental, indien et chinois.

Actu un peu plus tard

Lire le billet de M.-C. Beuth sur le sujet qui décortique clairement le choc des stratégies, et valide implicitement le tableau à trois entrées de Roger (ici)

Actu du 23 avril 2010

À lire aussi cet article du Monde qui montre bien l'enjeu de la redocumentarisation des individus, même s'il n'emploie pas le terme.

Facebook : de la nécessité de protéger ses données "relationnelles", par Guilhem Fouetillou, Le Monde 22 avril 2010 ici

Extraits :

Le fait que des individus se rassemblent autour de sujets d'intérêt commun n'est évidemment pas une découverte, la sociologie a décrit depuis longtemps ce phénomène et lui a même donné un nom : "homophilie". Ce qui est nouveau, par contre, c'est que sur Facebook chaque personne possédant un compte inscrit et archive l'ensemble de ses relations d'homophilie. Il devient alors possible de mesurer et d'analyser ces relations sur la totalité du réseau et de cerner avec précision le profil d'individus qui pourtant ont mis tous leurs curseurs de vie privée au maximum dans Facebook. (..)

On voit facilement comment ce type d'informations est d'une valeur inestimable pour des marques souhaitant déployer des stratégies de "marketing comportemental" mais aussi pour des organisations cherchant à repérer et à surveiller étroitement des groupes d'individus considérés comme "structurellement" à risque.

Ce ne sont donc pas uniquement nos données personnelles qu'il faut aujourd'hui maîtriser mais bien l'ensemble de nos liens, de nos relations, tant celles-ci communiquent de ce que nous sommes. C'est à Facebook aujourd'hui de donner à chacun le choix de rendre accessible et exploitable – tant par Facebook que par des tiers – le réseau de ses relations, indépendamment de ses données personnelles. De plus, cette action ne devrait pas être uniquement répercutée sur nos propres comptes mais aussi sur l'ensemble des comptes des personnes avec qui nous sommes liés car il s'agit bien là de relation nécessitant d'être verrouillées des deux côtés si l'on ne souhaite pas les voir diffusées.

Actu du 27 avril 2010

Ce commentaire d'O. Ezratty () sur un billet de F. Cavazza (L’avenir de l’informatique est-il au mobile ou au tactile ? Les deux (en partie), 12 avril ici) :

Un paradigme clé à observer est l’évolution de la répartition des usages entre création (de contenus), consommation (de contenus, comme pour acheter en ligne) et communication.

L’ordinateur classique avec clavier+souris est adapté à l’ensemble des usages et notamment au premier. Les alternatives mobiles et/ou tactiles telles que l’iPad sont adaptées aux deux dernières et assez peu pratiques pour la création, sauf pour dessiner “au doigt” ce qui ne va pas bien loin. Pour la photo et la vidéo, l’usage d’un mobile pour le transfert n’est pas une activité de création en soi. Le montage (vidéo) ou la retouche (photo) en sont. Et nécessitent encore un ordinateur classique.

Le fait est quand dans le grand public, il y a plus de consommateurs que de producteurs, ce, malgré l’avènement des réseaux sociaux. J’ai même l’impression qu’il y a de moins en moins de producteurs, tant les réseaux sociaux consomment le temps des Internautes dans la gestion de leurs interactions avec leur communauté. (..)

Tu évoques justement les comportements de la génération Y. Est-ce que ces nouveaux outils ne sont pas discrètement de les détourner des activités de création ? Est-ce que l’on créé plus lorsque l’on consomme trop ? C’est un peu comme le diptyque blog/twitter : qui va créer si tout le monde se met à consommer (via les RT) ?

Actu du 2 mai 2010

Fred Cavazza, “Facebook va-t-il révolutionner le web ?,” FredCavazza.net, Avril 28, 2010, ici

De nouveau un intéressant billet de F Cavazza, dans lequel, il cite ce tableau :

Revenu-par-internaute.jpg

- page 4 de 11 -