Economie du document (Bloc-notes de Jean-Michel Salaün)

Repérage de données sur l'économie des documents dans un environnement numérique

Aller au contenu | Aller au menu | Aller à la recherche

Recherche - écosystème

vendredi 16 novembre 2012

Les sept piliers de l’économie du document révisés (COOPT-Enssib)

Voici une première occasion d’appliquer mes bonnes résolutions sur les COurs Ouverts Pour Tous (COOPT). Il ne s’agit pas encore du cours transatlantique annoncé, mais, dans le cadre du master Politique des bibliothèques et de la documentation de l’Enssib, je dois animer quelques séances sur les « écosystèmes du document ». Compte tenu du petit nombre de séances, du public visé et des limites de mes compétences, je m’en tiendrai à une introduction à l’économie du document publié. Ce sera en même temps un test et une préfiguration pour le cours transatlantique ultérieur.

Les séances ont lieu en présentiel mais je vais utiliser la méthode de la classe inversée : le cours s’assimile à l’extérieur, avant la rencontre avec le professeur qui sert, elle, à vérifier que les notions ont été comprises et acquises. Dans la logique d’un COOPT, le cours (c'est-à-dire la partie non présentielle du processus) peut ainsi être ouvert et tout le monde peut en profiter… et même y participer, soit en annotant directement les matériaux du cours mis en ligne, soit en réagissant par Twitter avec #ecodoc. Je m’efforcerai de répondre à toutes les remarques.

La première séance sera consacrée aux particularités de l’économie du document. J’ai depuis longtemps l’habitude de les présenter sous forme d’une parabole dont les deux protagonistes sont une baguette de pain et un journal, parabole que j’actualise régulièrement. On trouvera ci-dessous la dernière version, fortement révisée par rapport à la précédente. Vous pouvez l’annoter, la commenter, contester, demander des explications et précisions, ajouter des références, etc. directement sur le fichier (l’outil est prévu pour par le bouton <Comment> en haut de la fenêtre) ou sur Twitter #ecodoc. Je suggère en particulier aux étudiantes de l’Enssib inscrites au cours de profiter de cette opportunité… cela leur sera très utile en vue de leur premier examen.

(si vous avez des difficultés de lecture, n'hésitez pas à agrandir le texte par la petite loupe en haut à gauche et tout rentrera dans l'ordre)

Pour aller plus loin, on peut lire la troisième partie du chapitre 4 du livre Vu, lu, su, et pour un lien vers les billets de ce blogue concernés par la thématique, cliquer sur les mots clés en haut de ce billet.

Autoévaluation

Pour vérifier votre compréhension, ci-dessous un petit quiz que je vous suggère d'annoter avec vos réponses et de discuter celles posées par d'autres lecteurs éventuels. De la confrontation nait la lumière !

(si vous avez des difficultés de lecture ou d'écriture, n'hésitez pas à agrandir ou rétrécir le document par les boutons en haut et à gauche de la fenêtre)

mercredi 06 juin 2012

Web de données, Google, Wikipédia, les liaisons dangereuses

Voici un nouveau billet pour montrer combien les avancées techniques et commerciales du web peuvent se lire au travers de la grille de la théorie du document et que celle-ci permet de souligner des impensés ou des non-dits. Cette fois je prendrai deux illustrations reliées : le web de données et la dernière annonce de Googlle, le Knowledge Graph.

Le web de données

Tim Berners-Lee dans une prestation, bien connue de la petite histoire du web, a prôné la mise à disposition libre des données, pour réaliser ce qu'il appelle le web de données, après avoir renoncé à l'appellation "web sémantique". Dans cette conférence de février 2009 à TED, je retiendrai pour mon propos le passage soulignant le rôle joué par Wikipédia (à 8mn 25s), et notamment cette diapositive.

TBL-WKP-TED-Fev-2009.jpg

L'image devrait éveiller quelques souvenirs aux bibliothécaires. Wikipédia, en effet, réalise une opération qui s'apparente au cataloguage, plaçant dans des champs des données descriptives du document principal pour construire une sorte de répertoire bibliographique, DBpédia, même si ici les champs sont moins formalisés que ceux des catalogueurs.

L'homologie est encore plus surprenante si l'on se souvient que P. Otlet, un des premiers théoriciens du document, avait lui-aussi proposé la réalisation d'une encyclopédie dans son rêve de cataloguer tous les documents du monde. On peut le vérifier, par exemple, sur cette image tirée de son livre testament (p.41) et bien connue des lecteurs de ce blogue :

Otlet-1934.jpg

Pourtant, il existe une différence radicale entre le projet de P. Otlet et celui de T. Berners-Lee. La documentarisation s'est déplacée. Pour le premier, l'enjeu est de récolter les documents pour les cataloguer, et l'encyclopédie n'est qu'un aboutissement, en réalité une utopie qui ne sera jamais vraiment opérationnelle. Pour le promoteur du web, cet objectif est atteint. En effet, les documents sont déjà en ligne, repérables par les moteurs de recherche, mis en place par la première étape du web. Mieux l'encyclopédie est aussi déjà là et s'enrichit dans une dynamique continue selon la logique de la seconde étape du web (Wikipédia est une figure emblématique du web 2.0).

L'enjeu est alors différent, conforme à l'évolution de la société - nous ne sommes plus à l'époque du triomphe de la science positive. Il s'agit de reconstruire des documents à partir des requètes des internautes en se servant comme ossature logique des données récoltées notamment dans l'encyclopédie et aussi dans d'autres bases coopératives comme Freebase. DBpédia est considérée par les chercheurs comme un noyau pour un web de données ouvertes. Tim O'Reilly, l'inventeur de l'expression Web 2.0 souligne pour sa part que Freebase constitue le pont entre l'intelligence collective issue de la base du web 2.0 et le monde plus structuré du web sémantique (ici trad JMS).

Nous sommes toujours dans une sorte de cataloguage, mais les métadonnées ne servent plus à retrouver un document, "libérées", rendues interopérables et traitables par les logiciels du web de données, elles se détachent de leur document d'origine pour se combiner et produire de nouveaux documents, nous dirons des néodocuments. A cet ensemble premier, peut alors se relier nombre de bases de toutes natures, libérées elles-aussi, mais ordonnées grâce à l'ossature initiale. Ci-dessous la version de sept 2011 du graphe ainsi constitué (voir ici pour naviguer dessus)

DBpedia-W3C-col-sept-2011.jpg

L'encyclopédie Wikipédia est un outil privilégié pour construire l'armature de ce nouvel ensemble car elle a vocation à être neutre et universelle. Tout se passe comme si les wikipédiens avaient catalogué les entrées de l'encyclopédie en ligne et que la mise en réseau de cette classification universelle pouvait autoriser la construction d'un nouveau monde documentaire, celui du néodocument servant sans doute moins à transmettre et prouver, comme son ancêtre, mais plus à échanger et convaincre dans une relation utilitariste.

Et en trichant un peu, on peut modifier et compléter alors le tableau de P. Otlet pour bien signifier la continuité historique de la logique documentaire du web, y compris pour ses applications les plus contemporaines. Peut-être que d'autres, plus doués que moi en graphisme, auront le plaisir de développer les pictogrammes...

Otlet-revisite.jpg

Le Knowledge Graph

Google a annoncé tout récemment l'intégration d'une dimension sémantique dans son moteur de recherche, baptisée Knowledge Graph (communiqué, pour une présentation rapide en fr voir Abondance, et une analyse voir Affordance). La firme fait ici un pas important vers le web de données.

Le principe du service est de proposer parallèlement aux réponses traditionnelles aux requêtes (liste de liens vers des documents pertinents récupérés par le PageRank), des informations construites à la volée donnant des éléments de contexte et, le cas échéant, la réponse elle-même. Google a indiqué qu'il avait soigneusement retravaillé son algorithme pour puiser des informations dans des bases de données comme Freebase ou Wikipedia afin de donner du contexte aux mots. (Les Echos).

Là encore, la continuité avec l'histoire documentaire est manifeste. Déjà comme l'indique Tim Berners-Lee lui-même, Google avait permis au premier web de devenir une bibliothèque : dès le développement du Web, ses détracteurs ont souligné qu’il ne pourrait jamais être une bibliothèque bien organisée, que sans base de données centrale et sans structure arborescente, on ne pourrait jamais être sûr de tout trouver. Ils avaient raison. Mais la puissance d’expression du système a mis à la disposition du public des quantités importantes d’informations et les moteurs de recherche (qui auraient paru tout à fait irréalisables il y a dix ans) permettent de trouver des ressources. (citation extraite de l'article qui lance le web sémantique, trad fr ici). Avec ce nouveau service, Google reconstruit à la volée un néodocument correspondant au contexte de la requête et l'affiche sur la page de réponse. Il participe ainsi directement à la suite de l'aventure, le web des données ou le web 3.

L'avenir nous dira quel sera l'intérêt et le succès de ces néodocuments, qui remplaceront sans doute quelques documents traditionnels et ouvriront peut-être aussi d'autres avenues. Mais avec l'arrivée de Google dans le paysage du web de données, il est déjà possible de pointer un non-dit de cette aventure. Pour cela l'analyse en trois dimensions du document (vu, lu, su) est éclairante. J'ai déjà eu l'occasion de dire que les trois étapes de l'histoire du web privilégiaient chaque fois une des dimensions : la forme, le repérage, le vu avec le premier web, celui du document ; le medium, la transmission, l'échange, le su avec le web 2.0, celui du partage ; le sens, le contenu, le lu avec le web de données, l'ex-web sémantique. Tim Berners-Lee et ses collègues du W3C se sont surtout intéressés aux webs 1 et 3, considérant le 2 comme simplement une extension naturelle du 1 et repoussant les questions sociales dans les dernières couches logicielles du ''cake''. Pourtant le carburant économique du web, nous le savons, est bien dans l'économie de l'attention, c'est-à-dire dans la deuxième dimension.

Déjà dans le premier web pris selon cette dimension, Google et Wikipédia n'étaient pas sans connivence (ici). On peut même prétendre que sans Google, Wikipédia n'aurait pas eu le même succès et que sans Wikipédia, Google n'aurait pas eu la même saveur. Mieux, la tentative de Google de construire sa propre encyclopédie a tourné court, comme si le succès de la coopération dans Wikipédia impliquait l'affichage du désintéressement. Les deux services sont alors complémentaires, fondant un écosystème au sens fort du terme basé sur l'économie de l'attention.

Il est un peu tôt pour savoir ce que donnera le nouveau service de Google en termes documentaires, mais on peut déjà avoir une petite idée de son impact sur l'économie de l'attention. Comme l'explique O. Andrieu sur ''Abondance'', Il semble déjà que l'impact sur le nombre de requêtes soit important. Il ajoute : Cela est logique dans le sens où le "Knowledge Graph" propose de nombreux liens concernant l'objet de la requête et de l'"entité nommée" détectée. D'ailleurs, cela pourrait clairement être à l'avantage de Google : l'internaute tape une requête sur la page d'accueil du moteur, obtient les résultats du Knowledge Graph, reclique sur les liens de recherche proposés, etc. Bref, autant de possibilité d'afficher des Adwords pour Google et autant de clics publicitaires potentiels !. De plus le processus tend à réduire l'impact des stratégies de référencement des sites au profit de l'achat de mots-clés, ce qui est doublement profitable pour Google. Inversement, il tend à faire monter dans les réponses les rubriques de Wikipédia...

Pour illustrer l'importance du changement, voici trois requêtes faites sur Google.com, telles qu'elles apparaissent en plein écran sur ma machine. Le néodocument généré automatiquement se trouve sur la droite. Le lecteur conclura de lui-même.

F-Hollande-Knoledge-Graph-06-06-2012.jpg

L-Page-Knowledge-Graph-06-06-2012.jpg

W-Disney-Knowledge-Graph-06-06-2012.jpg

29 juillet 2012

ITW d'Emily Moxley, responsable du Knowledge Graph chez Google :

« How Google Organizes the World: Q&A With the Manager of Knowledge Graph ». ReadWriteWeb, 26 juil 2012 .

Extraits (trad JMS) :

ReadWriteWeb: Quel est l'objectif de Google avec le Knowledge Graph ?

Emily Moxley : Il s'agit de cartographier le monde réel en quelque chose que les ordinateurs puissent comprendre. Cela consiste à prendre des objets du monde réel, à comprendre ce que sont ces choses et quelles sont les choses importantes à leur sujet, ainsi que leurs relations à d'autres choses. C'est la partie que je trouve la plus fascinante : Quelle est la relation entre toutes ces différentes choses ? (..)

RWW: Comment les choses sont ajoutées au Knowledge Graph ? Apprend-il de noueaux concepts des usagers ?

EM: Il est actualisé très activement par les employés de Google. Avant, Metaweb (JMS : qui a développé Freebase, rachetée par Google) était cette base d'entités et de faits et les employés de cette société utilisaient beaucoup leur intuition sur ce qui importait pour les usagers et sur quelle information aller chercher. Depuis qu'ils ont été rachetés par Google, Google dispose de tous ces usagers cherchant de l'information,(...) Google sait que les gens qui cherchent une chose en cherchent aussi d'autres. Ainsi on peut voir des relations intéressantes en regardant les sessions agrégées des usagers. Une des prochaines étapes est effectivement d'expliquer ces relations fortuites. Qu'est-ce qui est semblable à ce groupe d'acteurs ? Qu'est-ce qui explique dans ce film que les gens le recherche souvent avec ces cinq autres ? (..)

RWW: Est-ce que travailler avec des sources de données extérieures comme le CIA World Factbook ou Wikipedia, est plus compliqué que travailler avec les données de Freebase ?

EM: Il y a un vrai défi avec les sources de données externes, c'est la correspondance (reconciliation). Même en interne, nous venons d'acheter Metaweb il y a deux ans, et nous avions déjà une énorme quantité de données dans certains domaines, les données des livres et cartes locales sont les principaux. Ces deux étaient bien plus importants que Freebase. Ils disposaient de beaucoup plus d'entités et d'informations. Les faire correspondre à la nouvelle organisation des données fut un gros défi. (..) Ce n'est pas plus difficile avec des éléments extérieurs qu'internes.

RWW: Mais devez-vous corriger des choses ? Comment choisissez-vous si c'est plutôt le CIA World Factbook ou Google qui a raison ?

EM: Volontairement, nous essayons de nous en tenir à des choses définitivement vraies - factuelles - pas des choses sujètes à spéculation ou opinion, et nous faisons des erreurs du côté des faits. Aussi si cela est sujet de controverse, nous pourrions décider de ne pas le montrer (dans la Knowledge box). (...)

Avec Knowledge Graph l'objectif est différent (de la recherche classique). Il s'agit d'obtenir une information le plus rapidement possible, mais aussi de vous donner des informations que vous ne saviez même pas que vous recherchiez. (...)

9 août 2012

La présentation officielle en vidéo du KG. Cela va très vite, la recherche par image a été intégrée.

30 août 2012

Il semble que les infos de profil de Google + soient intégrées maintenant :

mardi 28 février 2012

Séminaire AI : Algorithmes, données et sens (9 mars Lyon)

Le prochain séminaire sur l'architecture de l'information se tiendra à Lyon le 9 mars 13h30 à l'IXXI à Lyon. Entrée libre.

Programe alléchant comme d'habitude :

Vers une sociologie des algorithmes (Toward a Sociology of Algorithms, présentation en anglais), Tarleton Gillespie, Cornell University

Les algorithmes jouent un rôle de plus en plus important dans la façon dont nous trouvons les informations les plus importantes pour nous. L'algorithme de recherche de Google, le Newsfeed de Facebook, les recommandations d'Amazon et les Trends de Twitter, tous les jours nous nous tournons vers des algoritmes informatiques conçus pour nous dire ce qui est le plus important pour nous et pour les autres. En réalité, les ressources informatiques que nous avons créées sont maintenant trop vastes et trop complexes. Seuls des algorithmes peuvent les gérer.

Pourtant cette emprise des algorithmes s'accompagne d'une vulnérabilité. Les algorithmes décident des informations à mettre en évidence, de quelles relations à faire ou ne pas faire entre elles. Et leur logique est opaque, construite dans des outils dont nous pouvons nous servir mais pas démonter. Les conclusions qu'ils dessinent ont des implications sociales et politiques pour les gens, les communautés et les organisations qui dépendent d'eux.

Nous avons besoin d'une sociologie des algorithmes. Cela va au delà des questions leur marche et leur perfectionnement. C'est une caractéristique essentielle de notre écosystème informationnel, et il faut se demander comment ces algorithmes façonnent la production et la mise à l'écart de l'information, de la connaissance et de la culture. A quelles obligations les designers et les développeurs d'algorithmes doivent faire face, puisque que leurs outils rendent de plus en plus de services vitaux pour des fonctions publiques dans la détermination de ce qui est vu et perçu comme pertinent et de comment nous nous reconnaissons nous même comme un public ?

Donner du sens aux données, Gautier Poupeau, Antidot

Open Data, Linked Data, Big Data, Data journalism... autant d'expressions qui ont remplacé sous les feux des projecteurs des professionnels du numérique le Web 2.0 et le Web social entré peu à peu dans leur pratique quotidienne, mais qu'en est-il réellement et, surtout, que faut-il attendre de ces concepts et des avancées sous-jacentes ? S'agit-il d'un effet de mode engendré par le buzz et le besoin de nouveautés constantes de ce milieu ou d'une tendance lourde qui marquerait un tournant dans la place accordée à la donnée et plus généralement à l'attention à l'information dans le système d'information ?

En définissant chacune de ces visions, nous en dresserons une cartographie pour mieux les critiquer et montrer leurs apports et leurs limites. Nous les analyserons en particulier à la lumière de la place accordée à la donnée elle-même et à sa logique. Ainsi, nous tenterons de montrer la nécessité d'accorder une place prépondérante à la question du sens que les données véhiculent, tant dans leur modélisation, leur mise à disposition, leur traitement, leur croisement, leur usage que leur visualisation.

dimanche 01 janvier 2012

Amazon, l'hybride

La politique de prêt de ebooks via Amazon, relancée par son alliance avec Overdrive, a fait l'objet d'analyses et inquiétudes récentes (v. la synthèse par INA-Global, commentée par S. Mercier, sur ce blogue le billet de Ch. Lalonde). Avant d'y revenir, il est utile de comprendre la stratégie d'Amazon et de la placer parmi les Internet Big Five, telles que J. Battelle les appelle.

InternetBigFiveChartv1.png

Ces cinq sociétés ont été sélectionnées par JB sur la base de leur capitalisation boursière, le cash disponible, les internautes touchés, l'engagement par rapport aux données (les données des utilisateurs récoltées), l'expérience d'une plateforme, les deux derniers critères étant notés par JB lui-même sur la base de ses connaissances des sociétés.

Pourtant, il n'est pas sûr qu'Amazon joue dans la même catégorie. En réalité, il s'agit plutôt d'une société commerciale hybride entre le numérique et le physique. Pour bien le comprendre, il est utile de faire un détour par l'évolution de son chiffre d'affaires et de son bénéfice.

CA-Amazon.png Source : Bilans annuels

On y constate d'évidence une évolution radicalement différente entre le volume des ventes qui s'envole de plus en plus rapidement et le bénéfice, plus capicieux et bien modeste. Il semble que l'année 2011 ait encore accentué la tendance : son bénéfice aurait baissé alors que les ventes auraient encore grandement augmenté grâce en particulier à une politique commerciale agressive sur les prix du Kindle, puis le lancement du Kindle Fire. Voici déjà une première différence avec les trois premiers du tableau dont les chiffres d'affaires et les bénéfices sont conséquents.

Pour comprendre cette stratégie, car cette évolution structurelle est voulue et non subie, il ne faut pas raisonner à court terme, comme l'indique bien un observateur du Daily Finance. Selon lui, la firme aurait même mis en place en 2011 son programme pour les dix ans à venir. Amazon serait définitivement un hybride entre (trad. JMS) :

  • WalMart, un supermarché dominant, mais en ligne...
  • Cotsco, au travers un continuum de ventes liées par Amazon Prime, qui lui fournit un flux de revenus annuels...
  • Apple en proposant un matériel qui est intégré verticalement avec les logiciels verrouillés.

Cotsco est une chaîne de magasins réservés aux détenteurs d'une carte de membre offrant toute une série d'avantages commerciaux. Actuellement Amazon perdrait 11 $ par adhérent annuel à son programme Prime qui est pourtant un énorme succès public (ici). Le parallèle avec Apple vient évidemment de la comparaison et la concurrence entre l'Ipad et le Kindle et leur écosystème. Pourtant le parallèle a aussi quelques limites. Dans le couple indissociable contenant/contenu, la priorité d'''Apple'' est sur le premier terme, tandis que celle d'Amazon est sur le second.

Ainsi, Amazon est bien une firme hybride et non un pure player, comme les autres participants au club des Big Five. Mieux, contrairement aux autres, Amazon n'a pas construit son succès sur une technologie en rupture avec l'existant, mais bien par une stratégie marketing classique, utilisant au mieux les spécificités du numérique.

Regardons de plus près les conséquences de cette stratégie dans son premier marché historique, le livre touché à tous les niveaux de sa production-distribution par le numérique. On y constate que l'objectif d'Amazon est de couvrir l'ensemble de la chaîne économique et non seulement le maillon final de la distribution et de la vente,

Un analyste de Forbes a fait l'inventaire des principales décisions de la firme sur les dix dernières années et le marché américain, dans un article récent au titre révélateur, Why Amazon Is The Best Strategic Player In Tech (trad. JMS) :

  1. L'achat en un clic.
  2. La livraison gratuite au delà de 25$.
  3. Le premier à proposer la commercialisation, astucieuse et pratique, mais prédatrice, de l'autopublication, à une époque (fin 90) où il était pratiquement impossible de se faire distribuer, même pour un petit éditeur.
  4. Création d'un marché du livre d'occasion qui est passé de 4% à 30% du marché total en quelques années (chiffre déjà ancien).
  5. Combat contre les imprimeurs à la demande en utilisant son modèle d'expédition en 24h comme une arme pour amener les volumes imprimés à BookSurge dans ses opérations internes.
  6. Couper l'herbe sous les pieds de Lulu, le pionnier de l'autopublication, avec l'offre Createspace, proposant aux auteurs une meilleure marge.
  7. Démarrage du programme d'affiliation (qui selon des sources non-vérifiées représenterait 40% des ventes).
  8. Rendre la publication sur Kindle ultra-simple.
  9. Proposition pour les éditeurs de droits attractifs sur le Kindle, 70% entre 2,99$ et 9,99$, difficile à refuser pour cette gamme de prix
  10. Une fois que la chaîne traditionnelle d'approvisionnement est suffisamment affaiblie pour que les éditeurs traditionnels ne soient plus très utiles, montée en puissance de la discussion directe avec les auteurs.
  11. Commencer par une expérience ebook la plus proche possible des livres traditionnels, mais pousser aussi vite que les lecteurs puissent tenir vers des formats numériques plus flexibles (blogues sur le Kindle, Kindle "single", et avec les fonctionnalités récemment annoncées, des images de bonne qualité).
  12. Pousser résolument le pion Kindle vers la reine avec le modèle de prêt de livres et la récente offre-que-vous-ne-pouvez-pas-refuser pour les éditeurs d'exclusivité sur les Kindles pendant au moins les 90 premiers jours (l'année prochaine on basculera sans doute vers une priorité ou une exclusivité pour beaucoup de petits éditeurs ; jusqu'à présent les ebooks ne sont considérés que comme un marché supplémentaire).
  13. Et pendant tout ce temps, maintenir l'expérience d'achat familière, mais en enlevant tous les obstacles pour accroitre les conversions et les ventes au cours de la même visite avec des mécanismes allant du feuilletage jusqu'aux recommandations de lectures comparables et le regroupement des recommendations.

On peut relire facilement cette histoire à partir des 4P (Product, Price, Place, Promotion) du marketing stratégique le plus basique, bien loin des ruptures qu'ont constitué le lancement du programme Google-book et son feuilleton ou encore celui de l'iPad et la guerre des brevets.

Quelques mots pour finir sur le nouveau service de prêts et les bibliothèques. Sans reprendre les analyses rappelées au début de billet, juste quatre nuances ou insistances :

  • Une bibliothèque s'adresse d'abord à la communauté locale qui la finance. Dans ce contexte, la liseuse et les logiciels associés jouent le même rôle de repérage et contrôle que l'entrée sur le domaine de l'université de l'étudiant quand il se connecte par son identifiant. C'est pourquoi, il me parait peu raisonnable d'imaginer un système ouvert, sauf à vouloir changer radicalement le modèle éditorial et le modèle bibliothéconomique pour ce qui n'est pour le moment qu'une chimère.
  • La fracture numérique n'est pas une chimère. Il est du devoir des bibliothèques de la combattre et ce combat risque de durer longtemps. C'est pourquoi il est important de prêter aussi des liseuses et pas seulement des fichiers.
  • Par construction, la mission des bibliothèques est de retirer les contenus des contraintes commerciales pour les proposer au public. Il est donc contradictoire pour elles qu'un prêt se conclut par une offre commerciale exclusive. Mais les bibliothèques francophones, même en consortium, ne pèsent pas lourd vis-à-vis des stratégies des Big Five. Aussi la seule voie pour préserver le service public de la lecture semble la voie légale ou réglementaire qui devrait interdire ce genre de pratique. Je ne suis pas juriste, mais il ne m'étonnerait pas que des textes appuyant cette interdiction existent déjà.
  • Enfin, les bibliothèques devraient mener un combat plus affirmé pour l'anonymat de la lecture et ce type de service de prêts pourrait être une occasion d'avancer en ce sens grâce à une interface de la bibliothèque entre Amazon et le lecteur.

Actu du 7 janvier 2012

A lire la suite de la réflexion de J Battelle The Internet Big Five By Product Strength, qui confirme la situation décalée d'Amazon

Actu du 16 janvier 2012

Lire Amazon.com case study, Smart Inside, 16 janvier 2012.

2 fév 2012

Amazon déroule sa stratégie en ignorant la Bourse, Les Echos 31 janv 2012

17-04-2012

« States fight back against Amazon.com’s tax deals ». The Seattle Times.

Série d'articles sur l'organisation d'Amazon.

mercredi 30 novembre 2011

La position dominante de Google

Intéressante étude de chercheurs indépendants résumée par le Journal du Net :

Joshua D. Wright, Defining and Measuring Search Bias: Some Preliminary Evidence, International Center for Law & Economics, 3 non 2011, Pdf, résumé français du JdN.

L'étude cherche à vérifier si Google et MSN favorisent leurs services au travers de leurs moteurs respectifs. Sa conclusion est que les biais de Bing (MSN) sont beaucoup plus forts que ceux de Google.

Ce résultat ne devrait pas surprendre les lecteurs assidus de ce blogue. Étant sous le coup d'enquête antitrust aux US et en Europe ses principaux marchés (JdN), Google prendrait un risque beaucoup trop élevé à favoriser ses services sur son moteur. Mais la réalité de la domination de Google est de moins en moins dans le fonctionnement de son moteur et de plus en plus dans l'écosystème documentaire qu'il met en place captant l'attention du lire/écrire pour présenter les publicités contextuelles, comme déjà expliqué ici.

J'en profite pour actualiser mon graphique avec les derniers chiffres du CA de la firme (par trimestres). La tendance à la concentration sur les sites de la firme s'accélère encore.

CA_Google_Q3_2011.png

Reste que la position de Google est souvent mal comprise. On le traite, par exemple, « d'irresponsable » quand il change son algorithme pour affiner ses résultats (ici), car il réduit brutalement la visibilité de sites commerciaux, jusqu'à parfois les mettre en péril. Mais Google n'a pas de responsabilité assumée dans le développement économique. C'est un média qui, comme tel, doit garder son indépendance. Sans doute sa position dominante lui confère une influence qui mériterait d'être analysée plus rigoureusement qu'elle ne l'a été jusqu'ici, mais que dirait-on si, par exemple, le NYT modifiait la ligne éditoriale en fonction des récriminations de tel ou tel commerçant ?

Actu du 7 décembre 2011

A compléter avec Google Chrome deviendra-t-il un nouveau IE6 ? de Framasoft et The Rise of Google, the Ascent of Facebook and the Decline of Everyone Else sur la position écrasante de G dans le marché de la pub US.

- page 3 de 6 -