Economie du document (Bloc-notes de Jean-Michel Salaün)

Repérage de données sur l'économie des documents dans un environnement numérique

Aller au contenu | Aller au menu | Aller à la recherche

Mot-clé - 313. REINGENIERIES DOCUMENTAIRES ; Renouveau ; Le Web

Fil des billets

mercredi 06 juin 2012

Web de données, Google, Wikipédia, les liaisons dangereuses

Voici un nouveau billet pour montrer combien les avancées techniques et commerciales du web peuvent se lire au travers de la grille de la théorie du document et que celle-ci permet de souligner des impensés ou des non-dits. Cette fois je prendrai deux illustrations reliées : le web de données et la dernière annonce de Googlle, le Knowledge Graph.

Le web de données

Tim Berners-Lee dans une prestation, bien connue de la petite histoire du web, a prôné la mise à disposition libre des données, pour réaliser ce qu'il appelle le web de données, après avoir renoncé à l'appellation "web sémantique". Dans cette conférence de février 2009 à TED, je retiendrai pour mon propos le passage soulignant le rôle joué par Wikipédia (à 8mn 25s), et notamment cette diapositive.

TBL-WKP-TED-Fev-2009.jpg

L'image devrait éveiller quelques souvenirs aux bibliothécaires. Wikipédia, en effet, réalise une opération qui s'apparente au cataloguage, plaçant dans des champs des données descriptives du document principal pour construire une sorte de répertoire bibliographique, DBpédia, même si ici les champs sont moins formalisés que ceux des catalogueurs.

L'homologie est encore plus surprenante si l'on se souvient que P. Otlet, un des premiers théoriciens du document, avait lui-aussi proposé la réalisation d'une encyclopédie dans son rêve de cataloguer tous les documents du monde. On peut le vérifier, par exemple, sur cette image tirée de son livre testament (p.41) et bien connue des lecteurs de ce blogue :

Otlet-1934.jpg

Pourtant, il existe une différence radicale entre le projet de P. Otlet et celui de T. Berners-Lee. La documentarisation s'est déplacée. Pour le premier, l'enjeu est de récolter les documents pour les cataloguer, et l'encyclopédie n'est qu'un aboutissement, en réalité une utopie qui ne sera jamais vraiment opérationnelle. Pour le promoteur du web, cet objectif est atteint. En effet, les documents sont déjà en ligne, repérables par les moteurs de recherche, mis en place par la première étape du web. Mieux l'encyclopédie est aussi déjà là et s'enrichit dans une dynamique continue selon la logique de la seconde étape du web (Wikipédia est une figure emblématique du web 2.0).

L'enjeu est alors différent, conforme à l'évolution de la société - nous ne sommes plus à l'époque du triomphe de la science positive. Il s'agit de reconstruire des documents à partir des requètes des internautes en se servant comme ossature logique des données récoltées notamment dans l'encyclopédie et aussi dans d'autres bases coopératives comme Freebase. DBpédia est considérée par les chercheurs comme un noyau pour un web de données ouvertes. Tim O'Reilly, l'inventeur de l'expression Web 2.0 souligne pour sa part que Freebase constitue le pont entre l'intelligence collective issue de la base du web 2.0 et le monde plus structuré du web sémantique (ici trad JMS).

Nous sommes toujours dans une sorte de cataloguage, mais les métadonnées ne servent plus à retrouver un document, "libérées", rendues interopérables et traitables par les logiciels du web de données, elles se détachent de leur document d'origine pour se combiner et produire de nouveaux documents, nous dirons des néodocuments. A cet ensemble premier, peut alors se relier nombre de bases de toutes natures, libérées elles-aussi, mais ordonnées grâce à l'ossature initiale. Ci-dessous la version de sept 2011 du graphe ainsi constitué (voir ici pour naviguer dessus)

DBpedia-W3C-col-sept-2011.jpg

L'encyclopédie Wikipédia est un outil privilégié pour construire l'armature de ce nouvel ensemble car elle a vocation à être neutre et universelle. Tout se passe comme si les wikipédiens avaient catalogué les entrées de l'encyclopédie en ligne et que la mise en réseau de cette classification universelle pouvait autoriser la construction d'un nouveau monde documentaire, celui du néodocument servant sans doute moins à transmettre et prouver, comme son ancêtre, mais plus à échanger et convaincre dans une relation utilitariste.

Et en trichant un peu, on peut modifier et compléter alors le tableau de P. Otlet pour bien signifier la continuité historique de la logique documentaire du web, y compris pour ses applications les plus contemporaines. Peut-être que d'autres, plus doués que moi en graphisme, auront le plaisir de développer les pictogrammes...

Otlet-revisite.jpg

Le Knowledge Graph

Google a annoncé tout récemment l'intégration d'une dimension sémantique dans son moteur de recherche, baptisée Knowledge Graph (communiqué, pour une présentation rapide en fr voir Abondance, et une analyse voir Affordance). La firme fait ici un pas important vers le web de données.

Le principe du service est de proposer parallèlement aux réponses traditionnelles aux requêtes (liste de liens vers des documents pertinents récupérés par le PageRank), des informations construites à la volée donnant des éléments de contexte et, le cas échéant, la réponse elle-même. Google a indiqué qu'il avait soigneusement retravaillé son algorithme pour puiser des informations dans des bases de données comme Freebase ou Wikipedia afin de donner du contexte aux mots. (Les Echos).

Là encore, la continuité avec l'histoire documentaire est manifeste. Déjà comme l'indique Tim Berners-Lee lui-même, Google avait permis au premier web de devenir une bibliothèque : dès le développement du Web, ses détracteurs ont souligné qu’il ne pourrait jamais être une bibliothèque bien organisée, que sans base de données centrale et sans structure arborescente, on ne pourrait jamais être sûr de tout trouver. Ils avaient raison. Mais la puissance d’expression du système a mis à la disposition du public des quantités importantes d’informations et les moteurs de recherche (qui auraient paru tout à fait irréalisables il y a dix ans) permettent de trouver des ressources. (citation extraite de l'article qui lance le web sémantique, trad fr ici). Avec ce nouveau service, Google reconstruit à la volée un néodocument correspondant au contexte de la requête et l'affiche sur la page de réponse. Il participe ainsi directement à la suite de l'aventure, le web des données ou le web 3.

L'avenir nous dira quel sera l'intérêt et le succès de ces néodocuments, qui remplaceront sans doute quelques documents traditionnels et ouvriront peut-être aussi d'autres avenues. Mais avec l'arrivée de Google dans le paysage du web de données, il est déjà possible de pointer un non-dit de cette aventure. Pour cela l'analyse en trois dimensions du document (vu, lu, su) est éclairante. J'ai déjà eu l'occasion de dire que les trois étapes de l'histoire du web privilégiaient chaque fois une des dimensions : la forme, le repérage, le vu avec le premier web, celui du document ; le medium, la transmission, l'échange, le su avec le web 2.0, celui du partage ; le sens, le contenu, le lu avec le web de données, l'ex-web sémantique. Tim Berners-Lee et ses collègues du W3C se sont surtout intéressés aux webs 1 et 3, considérant le 2 comme simplement une extension naturelle du 1 et repoussant les questions sociales dans les dernières couches logicielles du ''cake''. Pourtant le carburant économique du web, nous le savons, est bien dans l'économie de l'attention, c'est-à-dire dans la deuxième dimension.

Déjà dans le premier web pris selon cette dimension, Google et Wikipédia n'étaient pas sans connivence (ici). On peut même prétendre que sans Google, Wikipédia n'aurait pas eu le même succès et que sans Wikipédia, Google n'aurait pas eu la même saveur. Mieux, la tentative de Google de construire sa propre encyclopédie a tourné court, comme si le succès de la coopération dans Wikipédia impliquait l'affichage du désintéressement. Les deux services sont alors complémentaires, fondant un écosystème au sens fort du terme basé sur l'économie de l'attention.

Il est un peu tôt pour savoir ce que donnera le nouveau service de Google en termes documentaires, mais on peut déjà avoir une petite idée de son impact sur l'économie de l'attention. Comme l'explique O. Andrieu sur ''Abondance'', Il semble déjà que l'impact sur le nombre de requêtes soit important. Il ajoute : Cela est logique dans le sens où le "Knowledge Graph" propose de nombreux liens concernant l'objet de la requête et de l'"entité nommée" détectée. D'ailleurs, cela pourrait clairement être à l'avantage de Google : l'internaute tape une requête sur la page d'accueil du moteur, obtient les résultats du Knowledge Graph, reclique sur les liens de recherche proposés, etc. Bref, autant de possibilité d'afficher des Adwords pour Google et autant de clics publicitaires potentiels !. De plus le processus tend à réduire l'impact des stratégies de référencement des sites au profit de l'achat de mots-clés, ce qui est doublement profitable pour Google. Inversement, il tend à faire monter dans les réponses les rubriques de Wikipédia...

Pour illustrer l'importance du changement, voici trois requêtes faites sur Google.com, telles qu'elles apparaissent en plein écran sur ma machine. Le néodocument généré automatiquement se trouve sur la droite. Le lecteur conclura de lui-même.

F-Hollande-Knoledge-Graph-06-06-2012.jpg

L-Page-Knowledge-Graph-06-06-2012.jpg

W-Disney-Knowledge-Graph-06-06-2012.jpg

29 juillet 2012

ITW d'Emily Moxley, responsable du Knowledge Graph chez Google :

« How Google Organizes the World: Q&A With the Manager of Knowledge Graph ». ReadWriteWeb, 26 juil 2012 .

Extraits (trad JMS) :

ReadWriteWeb: Quel est l'objectif de Google avec le Knowledge Graph ?

Emily Moxley : Il s'agit de cartographier le monde réel en quelque chose que les ordinateurs puissent comprendre. Cela consiste à prendre des objets du monde réel, à comprendre ce que sont ces choses et quelles sont les choses importantes à leur sujet, ainsi que leurs relations à d'autres choses. C'est la partie que je trouve la plus fascinante : Quelle est la relation entre toutes ces différentes choses ? (..)

RWW: Comment les choses sont ajoutées au Knowledge Graph ? Apprend-il de noueaux concepts des usagers ?

EM: Il est actualisé très activement par les employés de Google. Avant, Metaweb (JMS : qui a développé Freebase, rachetée par Google) était cette base d'entités et de faits et les employés de cette société utilisaient beaucoup leur intuition sur ce qui importait pour les usagers et sur quelle information aller chercher. Depuis qu'ils ont été rachetés par Google, Google dispose de tous ces usagers cherchant de l'information,(...) Google sait que les gens qui cherchent une chose en cherchent aussi d'autres. Ainsi on peut voir des relations intéressantes en regardant les sessions agrégées des usagers. Une des prochaines étapes est effectivement d'expliquer ces relations fortuites. Qu'est-ce qui est semblable à ce groupe d'acteurs ? Qu'est-ce qui explique dans ce film que les gens le recherche souvent avec ces cinq autres ? (..)

RWW: Est-ce que travailler avec des sources de données extérieures comme le CIA World Factbook ou Wikipedia, est plus compliqué que travailler avec les données de Freebase ?

EM: Il y a un vrai défi avec les sources de données externes, c'est la correspondance (reconciliation). Même en interne, nous venons d'acheter Metaweb il y a deux ans, et nous avions déjà une énorme quantité de données dans certains domaines, les données des livres et cartes locales sont les principaux. Ces deux étaient bien plus importants que Freebase. Ils disposaient de beaucoup plus d'entités et d'informations. Les faire correspondre à la nouvelle organisation des données fut un gros défi. (..) Ce n'est pas plus difficile avec des éléments extérieurs qu'internes.

RWW: Mais devez-vous corriger des choses ? Comment choisissez-vous si c'est plutôt le CIA World Factbook ou Google qui a raison ?

EM: Volontairement, nous essayons de nous en tenir à des choses définitivement vraies - factuelles - pas des choses sujètes à spéculation ou opinion, et nous faisons des erreurs du côté des faits. Aussi si cela est sujet de controverse, nous pourrions décider de ne pas le montrer (dans la Knowledge box). (...)

Avec Knowledge Graph l'objectif est différent (de la recherche classique). Il s'agit d'obtenir une information le plus rapidement possible, mais aussi de vous donner des informations que vous ne saviez même pas que vous recherchiez. (...)

9 août 2012

La présentation officielle en vidéo du KG. Cela va très vite, la recherche par image a été intégrée.

30 août 2012

Il semble que les infos de profil de Google + soient intégrées maintenant :

mercredi 11 mai 2011

Le web est un média documentaire

AOL en partenariat avec Nielsen a réalisé une intéressante étude sur les échanges de contenu sur le web. L'étude porte sur un échantillon conséquent, amène des résultats sinon inattendus, du moins moins convenus que la vulgate habituelle et enfin elle affiche clairement son objectif (comment construire un dispositif publicitaire, et donc en retour une économie du web ?). Mais elle n'est évidemment pas désintéressée. AOL y souligne l'importance de ses services, notamment le courriel.

Content is the fuel of the social web Pdf. (il faudrait que les designers de AOL apprennent l'usage des couleurs, c'est pourquoi je n'ai reproduit ici qu'une diapo..)

L'étude s'appuie sur les outils et panels de Nielsen. 10,000 messages envoyés sur les médias sociaux ont été analysés, 1000 personnes ont été suivies pendant 10 jours consécutifs entre le 13 et le 23 décembre dernier. La marge d'erreur serait de moins de +/-10%.

Quelques leçons pour la thématique de ce blogue :

AOL-Nielsen-2011-Temps-Web.jpg

Ainsi la navigation sur le web, mesurée par le temps, est (reste) majoritairement documentaire.

Mais le plus intéressant est l'analyse des 30% consacrés à la communication interpersonnelle ou de groupe (médias sociaux et courriels). 23% des messages sur les médias sociaux incluent un lien vers du contenu (par contenu l'étude comprend des articles publiés, des vidéos et des photos, mais ni des vidéos familiales, ni les photos de fêtes) et si on ajoute les conversations sur ce contenu le pourcentage est certainement beaucoup plus élevé.

Lorsque l'on demande aux personnes quel est l'outil privilégié pour partager de l'information la réponse est à 66% le courriel. Les autres canaux sont loin derrière : 28% pour les réseaux sociaux, le reste est en dessous de la marge d'erreur.

Lorsque l'on demande les canaux privilégiés pour partager l'information selon l'audience. Tous les canaux sont utilisés vers les amis, un peu moins les sites de partage. Le courriel puis les réseaux sociaux sont privilégiés pour la famille, comme pour le partage entre collègues. Enfin ce sont les sites de partage qui sont privilégiés pour diffuser plus largement l'information.

Même s'il faut tenir compte du commanditaire, cette étude relativise quelques idées reçues :

  • la navigation sur le web reste très majoritairement documentaire,
  • le courriel n'est pas sur le déclin pour partager l'information,
  • le multicanal est la règle pour partager.

Cette structure ne facilite pas la construction d'une économie publicitaire. Même si, à l'évidence, l'information se diffuse et se partage, l'attention est éclatée.

Actu du 14 juin 2012

Voir le CR d'INA-Global qui élargi la perspective et donne d'autres références ici

mardi 23 novembre 2010

La troisième dimension du web

Comme en écho à mes préoccupations du moment, Tim Berners-Lee vient de publier un nouvel article, explicitement une réponse à celui de C. Anderson sur la mort du web :

Tim Berners-Lee, “Long Live the Web,” Scientific American (Décembre 2010), ici . Traduit en français ici.

Il défend d'abord sur l'utopie primitive du web, l'universalité, les protocoles ouverts, la distinction entre l'internet et le web et in fine le linked data qui sont les fondements du succès de la toile et fustige les tentatives de verrouillages de toutes sortes. On retrouve dans cet article les thèmes qui lui sont chers et qui s'appuient principalement sur la performativité. Mais, et c'est plus nouveau il me semble sous sa plume, il insiste aussi fortement sur la dimension politique du développement du web, faisant le parallèle avec la démocratie. Prenant des exemples dans des affaires récentes mettant aux prises des gouvernements et des firmes, il parle de droits de l'homme électroniques (Electronic Human Rights) et fustige la traçabilité.(No Snooping). Cette rhétorique nourrit toute la communauté du web libertaire depuis longtemps, mais elle déborde aujourd'hui le cercle des initiés, et l'alerte du fondateur du web en est une belle illustration.

Les débats, qui touchent maintenant les plus hautes instances politiques, montrent que le web est bien à la recherche de sa troisième dimension (ici), celle qui fonde son statut documentaire, non sans tâtonnement et c'est bien normal. On pourrait faire un parallèle avec la configuration progressive du statut social de la presse, telle que nous la connaissons aujourd'hui avec la figure du journaliste, le 4ème pouvoir, l'objectivité. Celle-ci est issue d'une innovation technique (rotatives), économique (double marché), de stratégies industrielles et d'une transformation profonde de la demande sociale. Un rapport récent montre judicieusement combien ce modèle de la presse traditionnelle est aujourd'hui ébranlé par une presse en ligne qui se cherche.

Philippe Couve et Nicolas Kaiser-Bril, Nouveaux modèles économiques & questions de déontologie, Novembre 2010 (ici).

jeudi 14 février 2008

XML 10 ans.. d'une révolution documentaire

Le consortium W3C fête les 10 ans de XML. L'anniversaire mérite d'être souligné tant le format s'est répandu et a révolutionné l'organisation du Web en favorisant flexibilité et interopérabilité entre les objets documentaires. Je cite le communiqué du W3C :

« Aujourd’hui, tous les ordinateurs du monde, qu’il s’agisse de postes de travail, de portables ou de stations de centre de données, traitent forcément du XML à un moment ou à un autre » déclare Tim Bray de Sun Microsystems. « Cela montre bien que les informations peuvent être regroupées, transmises et utilisées indépendamment des types d’ordinateurs ou de logiciels exploités. XML ne sera sans doute pas le seul vecteur neutre d’informations, mais ce fut le premier et à ce titre, il remplit bien sa mission. »

En fait, il est quasiment impossible de passer une journée sans avoir recours à une technologie qui repose, d’une manière ou d’une autre, sur XML. Quand vous faites le plein de votre voiture, XML passe souvent de la pompe à la station service. Quand vous configurez votre appareil photo numérique, vous utilisez des contrôles graphiques qui reposent sur XML. Lorsque vous le connectez à un ordinateur, cet appareil photo et le système d’exploitation communiquent en XML. Quand vous téléchargez de la musique numérique, le logiciel que vous utilisez pour l’organiser stocke les informations sur les chansons au format XML. Et quand vous explorez la planète Mars, XML vous accompagne ;

W3C XML fête ses 10 ans ! La communauté internationale est invitée à célébrer XML, Communiqué du 12 février 2008 ici

XML est un peu au document numérique ce que la page est au document papier : une forme standardisée et implicitement acceptée par l'ensemble de la société d'un contenu. Ainsi en faisant ce grand pas, XML a aussi transformé notre conception du rapport fond/forme des documents, sans qu'on y prenne vraiment garde. Voici ce que Roger en disait, il y a trois ans :

Les techniques documentaires fondées sur XML objectivent et réifient la tradition du document papier. Il est d’usage de considérer qu’un document structuré en XML recèle le fond – l’équivalent du manuscrit avant sa mise en forme typographique –, et que sa publication à travers par exemple des feuilles de style en est la forme. Mais les différentes représentations possibles d’un document en XML renvoient à des grammatisations différentes. Selon qu’elle adopte le formalisme des DTDs (Définition de Type de Document), des Schémas, ou bien encore des représentations logiques du Web sémantique, la codification XML renvoie à autant de considérations distinctes sur le contenu. (p.7-8)

Roger T Pédauque, “Le texte en jeu Permanence et transformations du document,” Avril 7, 2005, ici.

Ce n'est pas vraiment mon domaine de spécialités, mais, sauf erreur de ma part, je crois que les pistes lancées dans ce texte n'ont pas été suivies. Il est vrai que le style de Roger y est un peu abscons. Pourtant, il touche des questions essentielles et oubliées que cet anniversaire me donne l'occasion de rappeler.

Actu du 3 mars 2008 Gauthier Poupeau s'est depuis prêté au jeu, dans un long billet très critique de celui-là : Du Web sémantique au web de données, 2ème partie : retour sur un des articles de Roger T. Pédauque (ici)

samedi 01 avril 2006

Livre, mots-clés

Les mots-clés renvoient aux billets du blogue correspondant aux différents chapitres, parties et sous-parties du livre.