Economie du document (Bloc-notes de Jean-Michel Salaün)

Repérage de données sur l'économie des documents dans un environnement numérique

Aller au contenu | Aller au menu | Aller à la recherche

Mot-clé - 522. À LA RECHERCHE DU NEODOCUMENT ; L’élaboration d’un modèle commercial ; La stratégie du texte : Google

Fil des billets

mercredi 06 juin 2012

Web de données, Google, Wikipédia, les liaisons dangereuses

Voici un nouveau billet pour montrer combien les avancées techniques et commerciales du web peuvent se lire au travers de la grille de la théorie du document et que celle-ci permet de souligner des impensés ou des non-dits. Cette fois je prendrai deux illustrations reliées : le web de données et la dernière annonce de Googlle, le Knowledge Graph.

Le web de données

Tim Berners-Lee dans une prestation, bien connue de la petite histoire du web, a prôné la mise à disposition libre des données, pour réaliser ce qu'il appelle le web de données, après avoir renoncé à l'appellation "web sémantique". Dans cette conférence de février 2009 à TED, je retiendrai pour mon propos le passage soulignant le rôle joué par Wikipédia (à 8mn 25s), et notamment cette diapositive.

TBL-WKP-TED-Fev-2009.jpg

L'image devrait éveiller quelques souvenirs aux bibliothécaires. Wikipédia, en effet, réalise une opération qui s'apparente au cataloguage, plaçant dans des champs des données descriptives du document principal pour construire une sorte de répertoire bibliographique, DBpédia, même si ici les champs sont moins formalisés que ceux des catalogueurs.

L'homologie est encore plus surprenante si l'on se souvient que P. Otlet, un des premiers théoriciens du document, avait lui-aussi proposé la réalisation d'une encyclopédie dans son rêve de cataloguer tous les documents du monde. On peut le vérifier, par exemple, sur cette image tirée de son livre testament (p.41) et bien connue des lecteurs de ce blogue :

Otlet-1934.jpg

Pourtant, il existe une différence radicale entre le projet de P. Otlet et celui de T. Berners-Lee. La documentarisation s'est déplacée. Pour le premier, l'enjeu est de récolter les documents pour les cataloguer, et l'encyclopédie n'est qu'un aboutissement, en réalité une utopie qui ne sera jamais vraiment opérationnelle. Pour le promoteur du web, cet objectif est atteint. En effet, les documents sont déjà en ligne, repérables par les moteurs de recherche, mis en place par la première étape du web. Mieux l'encyclopédie est aussi déjà là et s'enrichit dans une dynamique continue selon la logique de la seconde étape du web (Wikipédia est une figure emblématique du web 2.0).

L'enjeu est alors différent, conforme à l'évolution de la société - nous ne sommes plus à l'époque du triomphe de la science positive. Il s'agit de reconstruire des documents à partir des requètes des internautes en se servant comme ossature logique des données récoltées notamment dans l'encyclopédie et aussi dans d'autres bases coopératives comme Freebase. DBpédia est considérée par les chercheurs comme un noyau pour un web de données ouvertes. Tim O'Reilly, l'inventeur de l'expression Web 2.0 souligne pour sa part que Freebase constitue le pont entre l'intelligence collective issue de la base du web 2.0 et le monde plus structuré du web sémantique (ici trad JMS).

Nous sommes toujours dans une sorte de cataloguage, mais les métadonnées ne servent plus à retrouver un document, "libérées", rendues interopérables et traitables par les logiciels du web de données, elles se détachent de leur document d'origine pour se combiner et produire de nouveaux documents, nous dirons des néodocuments. A cet ensemble premier, peut alors se relier nombre de bases de toutes natures, libérées elles-aussi, mais ordonnées grâce à l'ossature initiale. Ci-dessous la version de sept 2011 du graphe ainsi constitué (voir ici pour naviguer dessus)

DBpedia-W3C-col-sept-2011.jpg

L'encyclopédie Wikipédia est un outil privilégié pour construire l'armature de ce nouvel ensemble car elle a vocation à être neutre et universelle. Tout se passe comme si les wikipédiens avaient catalogué les entrées de l'encyclopédie en ligne et que la mise en réseau de cette classification universelle pouvait autoriser la construction d'un nouveau monde documentaire, celui du néodocument servant sans doute moins à transmettre et prouver, comme son ancêtre, mais plus à échanger et convaincre dans une relation utilitariste.

Et en trichant un peu, on peut modifier et compléter alors le tableau de P. Otlet pour bien signifier la continuité historique de la logique documentaire du web, y compris pour ses applications les plus contemporaines. Peut-être que d'autres, plus doués que moi en graphisme, auront le plaisir de développer les pictogrammes...

Otlet-revisite.jpg

Le Knowledge Graph

Google a annoncé tout récemment l'intégration d'une dimension sémantique dans son moteur de recherche, baptisée Knowledge Graph (communiqué, pour une présentation rapide en fr voir Abondance, et une analyse voir Affordance). La firme fait ici un pas important vers le web de données.

Le principe du service est de proposer parallèlement aux réponses traditionnelles aux requêtes (liste de liens vers des documents pertinents récupérés par le PageRank), des informations construites à la volée donnant des éléments de contexte et, le cas échéant, la réponse elle-même. Google a indiqué qu'il avait soigneusement retravaillé son algorithme pour puiser des informations dans des bases de données comme Freebase ou Wikipedia afin de donner du contexte aux mots. (Les Echos).

Là encore, la continuité avec l'histoire documentaire est manifeste. Déjà comme l'indique Tim Berners-Lee lui-même, Google avait permis au premier web de devenir une bibliothèque : dès le développement du Web, ses détracteurs ont souligné qu’il ne pourrait jamais être une bibliothèque bien organisée, que sans base de données centrale et sans structure arborescente, on ne pourrait jamais être sûr de tout trouver. Ils avaient raison. Mais la puissance d’expression du système a mis à la disposition du public des quantités importantes d’informations et les moteurs de recherche (qui auraient paru tout à fait irréalisables il y a dix ans) permettent de trouver des ressources. (citation extraite de l'article qui lance le web sémantique, trad fr ici). Avec ce nouveau service, Google reconstruit à la volée un néodocument correspondant au contexte de la requête et l'affiche sur la page de réponse. Il participe ainsi directement à la suite de l'aventure, le web des données ou le web 3.

L'avenir nous dira quel sera l'intérêt et le succès de ces néodocuments, qui remplaceront sans doute quelques documents traditionnels et ouvriront peut-être aussi d'autres avenues. Mais avec l'arrivée de Google dans le paysage du web de données, il est déjà possible de pointer un non-dit de cette aventure. Pour cela l'analyse en trois dimensions du document (vu, lu, su) est éclairante. J'ai déjà eu l'occasion de dire que les trois étapes de l'histoire du web privilégiaient chaque fois une des dimensions : la forme, le repérage, le vu avec le premier web, celui du document ; le medium, la transmission, l'échange, le su avec le web 2.0, celui du partage ; le sens, le contenu, le lu avec le web de données, l'ex-web sémantique. Tim Berners-Lee et ses collègues du W3C se sont surtout intéressés aux webs 1 et 3, considérant le 2 comme simplement une extension naturelle du 1 et repoussant les questions sociales dans les dernières couches logicielles du ''cake''. Pourtant le carburant économique du web, nous le savons, est bien dans l'économie de l'attention, c'est-à-dire dans la deuxième dimension.

Déjà dans le premier web pris selon cette dimension, Google et Wikipédia n'étaient pas sans connivence (ici). On peut même prétendre que sans Google, Wikipédia n'aurait pas eu le même succès et que sans Wikipédia, Google n'aurait pas eu la même saveur. Mieux, la tentative de Google de construire sa propre encyclopédie a tourné court, comme si le succès de la coopération dans Wikipédia impliquait l'affichage du désintéressement. Les deux services sont alors complémentaires, fondant un écosystème au sens fort du terme basé sur l'économie de l'attention.

Il est un peu tôt pour savoir ce que donnera le nouveau service de Google en termes documentaires, mais on peut déjà avoir une petite idée de son impact sur l'économie de l'attention. Comme l'explique O. Andrieu sur ''Abondance'', Il semble déjà que l'impact sur le nombre de requêtes soit important. Il ajoute : Cela est logique dans le sens où le "Knowledge Graph" propose de nombreux liens concernant l'objet de la requête et de l'"entité nommée" détectée. D'ailleurs, cela pourrait clairement être à l'avantage de Google : l'internaute tape une requête sur la page d'accueil du moteur, obtient les résultats du Knowledge Graph, reclique sur les liens de recherche proposés, etc. Bref, autant de possibilité d'afficher des Adwords pour Google et autant de clics publicitaires potentiels !. De plus le processus tend à réduire l'impact des stratégies de référencement des sites au profit de l'achat de mots-clés, ce qui est doublement profitable pour Google. Inversement, il tend à faire monter dans les réponses les rubriques de Wikipédia...

Pour illustrer l'importance du changement, voici trois requêtes faites sur Google.com, telles qu'elles apparaissent en plein écran sur ma machine. Le néodocument généré automatiquement se trouve sur la droite. Le lecteur conclura de lui-même.

F-Hollande-Knoledge-Graph-06-06-2012.jpg

L-Page-Knowledge-Graph-06-06-2012.jpg

W-Disney-Knowledge-Graph-06-06-2012.jpg

29 juillet 2012

ITW d'Emily Moxley, responsable du Knowledge Graph chez Google :

« How Google Organizes the World: Q&A With the Manager of Knowledge Graph ». ReadWriteWeb, 26 juil 2012 .

Extraits (trad JMS) :

ReadWriteWeb: Quel est l'objectif de Google avec le Knowledge Graph ?

Emily Moxley : Il s'agit de cartographier le monde réel en quelque chose que les ordinateurs puissent comprendre. Cela consiste à prendre des objets du monde réel, à comprendre ce que sont ces choses et quelles sont les choses importantes à leur sujet, ainsi que leurs relations à d'autres choses. C'est la partie que je trouve la plus fascinante : Quelle est la relation entre toutes ces différentes choses ? (..)

RWW: Comment les choses sont ajoutées au Knowledge Graph ? Apprend-il de noueaux concepts des usagers ?

EM: Il est actualisé très activement par les employés de Google. Avant, Metaweb (JMS : qui a développé Freebase, rachetée par Google) était cette base d'entités et de faits et les employés de cette société utilisaient beaucoup leur intuition sur ce qui importait pour les usagers et sur quelle information aller chercher. Depuis qu'ils ont été rachetés par Google, Google dispose de tous ces usagers cherchant de l'information,(...) Google sait que les gens qui cherchent une chose en cherchent aussi d'autres. Ainsi on peut voir des relations intéressantes en regardant les sessions agrégées des usagers. Une des prochaines étapes est effectivement d'expliquer ces relations fortuites. Qu'est-ce qui est semblable à ce groupe d'acteurs ? Qu'est-ce qui explique dans ce film que les gens le recherche souvent avec ces cinq autres ? (..)

RWW: Est-ce que travailler avec des sources de données extérieures comme le CIA World Factbook ou Wikipedia, est plus compliqué que travailler avec les données de Freebase ?

EM: Il y a un vrai défi avec les sources de données externes, c'est la correspondance (reconciliation). Même en interne, nous venons d'acheter Metaweb il y a deux ans, et nous avions déjà une énorme quantité de données dans certains domaines, les données des livres et cartes locales sont les principaux. Ces deux étaient bien plus importants que Freebase. Ils disposaient de beaucoup plus d'entités et d'informations. Les faire correspondre à la nouvelle organisation des données fut un gros défi. (..) Ce n'est pas plus difficile avec des éléments extérieurs qu'internes.

RWW: Mais devez-vous corriger des choses ? Comment choisissez-vous si c'est plutôt le CIA World Factbook ou Google qui a raison ?

EM: Volontairement, nous essayons de nous en tenir à des choses définitivement vraies - factuelles - pas des choses sujètes à spéculation ou opinion, et nous faisons des erreurs du côté des faits. Aussi si cela est sujet de controverse, nous pourrions décider de ne pas le montrer (dans la Knowledge box). (...)

Avec Knowledge Graph l'objectif est différent (de la recherche classique). Il s'agit d'obtenir une information le plus rapidement possible, mais aussi de vous donner des informations que vous ne saviez même pas que vous recherchiez. (...)

9 août 2012

La présentation officielle en vidéo du KG. Cela va très vite, la recherche par image a été intégrée.

30 août 2012

Il semble que les infos de profil de Google + soient intégrées maintenant :

vendredi 16 mars 2012

Le sens commun lu par Google

Google vient d'annoncer un important changement dans l'utilisation de ses algorithmes à l'issu notamment du rachat récent de la firme Metaweb (Wsj repéré par Abondance). Il s'agit pour certaines questions simples de donner directement la réponse en haut de la page, plutôt qu'une liste de liens y conduisant.

Extraits de l'article du Wsj qui reprend la présentation d'Amit Singhal, un des responsables du moteur (trad JMS) :

Le moteur s'approchera plus de "comment les hommes comprennent le monde" a dit M Singhal, remarquant que pour de nombreuses recherches aujourd'hui "nous croisons les doigts en espérant qu'il y ait bien une page où se trouve notre réponse." (..)

Selon ce changement, quelqu'un qui cherche "Lac Tahoe" verra les principaux "attributs" connus du moteur sur le lac, comme la localisation, l'altitude, la température moyenne ou sa salinité. Aujourd'hui, ceux qui cherchent "lac Tahoe" ne trouvent que des liens vers le site Web des visites, ses rubriques Wikipédia et un lien sur une carte.

Pour une question plus complexe comme : "quels sont les 10 plus grands lacs de la Californie ?", Google donnera la réponse plutôt que des liens vers d'autres sites. (..)

Par exemple, des gens qui cherchent un auteur particulier comme Ernest Hemingway pourront trouver sous le nouveau système une liste des livres de l'auteur qu'ils pourront feuilleter et des pages d'information sur d'autres auteurs ou livres pertinents, selon une personne au courant des plans de la firme. On peut supposer que Google proposera aussi d'acheter des livres. (..)

Quelqu'un de bien informé a dit que ce changement vers une recherche sémantique pourrait toucher les résultats de recherche de 10 à 20% de toutes les requêtes, soit des dizaines de milliards par mois. (..)

M Singhal a dit que Google et l'équipe du Metaweb, qui comprend aujourd'hui environ 50 ingénieurs, ont augmenté la taille de leur index à plus de 200 millions d'entités, en partie grâce au développement d'algorithmes d'extraction ou des formules mathématiques capables d'organiser les données disséminées sur le Web. Les organisations et agences gouvernementales ont été aussi approchées pour l'accès à leurs bases de données, y compris le CIA World Factbook, qui hébergent des informations encyclopédiques actualisées sur tous les pays du monde.

Une étape supplémentaire s'ouvre donc dans l'industrie de la lecture, la priorité mise par Google sur la deuxième dimension du document, le lu, proche des efforts du Web de données. De plus en plus, Google et Wikipédia deviennent complémentaires dans la construction d'un "sens commun" à partir des multiples documents disponibles. Il faut entendre ici sens commun dans toutes ses acceptions et il faudrait des études plus sérieuses que celles que j'ai consultées jusqu'ici à propos des conséquences de cette évolution globale du "lu" sur notre rapport au savoir, sur "comment les hommes comprennent le monde ?". Est-il raisonnable de laisser la réponse à cette question aux aléas de la stratégie d'une firme commerciale ?

mardi 07 février 2012

Le monde selon Facebook et selon Google

Pour rebondir sur la discussion d'un précédent billet voici deux images révélatrices des conceptions documentaires du monde par Facebook et par Google. Il reste à trouver celle qui représenterait le monde d'Apple. La comparaison des deux images est en effet instructive.

Facebook-P-Butler-14-12-2010.jpg

WebGL-Globe-Search-2012.jpg

On connait l'emblématique image des relations de Facebook, qui ressemble à une carte des lignes aériennes que l'on trouve dans les magazines disponibles dans les avions ou encore à celles des flux migratoires ou des échanges commerciaux des manuels de géographie de ma jeunesse. Facebook, chantre de la connexion, représente son activité sur une carte par des flux d'échanges.








Google propose de son côté un service expérimental de visualisation de données géolocalisées sur un globe terrestre, The WebGL Globe, et, comme exemple, il présente les recherches sur son moteur (search) colorée par langue dans le monde. On trouvera ci-contre une copie d'écran, mais l'image animée en 3D est beaucoup plus spectaculaire. Google présente ici son activité comme cumulative. Il ne s'agit plus de flux, mais de stock. La richesse d'informations accumulées en un lieu. Sans doute, la représentation est contrainte par l'algorithme qui organise de cette façon la visualisation des données, mais l'exemple n'est pas du au hasard, c'est aussi une image fidèle du modèle d'origine de la firme, issu de la bibliothéconomie. Dans la construction du modèle de Webmédia qui croise télé (-phone et -vision) et bibliothèque ou archives. Facebook penche plus, lui, vers la première origine.

Dans les deux cas, sur les deux cartes, on peut aussi visualiser l'implantation comparable des deux firmes américaines avec des déserts pourtant habités dus soit à l'absence d'activité sur l'internet dans ces zônes (Afrique), soit à l'existence de concurrents mieux implantés (Russie, Chine).

lundi 23 janvier 2012

Récupérer le Web, version Google

Voici ce que l'on peut lire dans la dernière présentation des résultats financiers de Google (trad JMS) :

"Google a eu vraiment un solide trimestre cloturant une grande année. Le chiffre d'affaires de l'année a augmenté de 29%, et celui du trimestre a dépassé les 10 milliards pour la première fois" a déclaré Larry Page, président de Google, "Je suis très content de la croissance d'Android, de Gmail et de Google+, qui aujourd'hui a dépassé globalement les 90 millions d'usagers, bien au delà du double de ce que j'avais annoncé il y a juste trois mois. En construisant une relation significative avec nos usagers via Google+ nous allons inventer de surprenantes expériences croisant nos services. Je suis très excité par nos perspectives pour 2012, il y a d'énormes possibilités pour aider nos usagers et augmenter nos affaires".

Remarquons l'absence d'allusion à la recherche et l'insistance sur Google+, présenté comme le service fédérateur, celui qui relie les autres pour ouvrir des opportunités nouvelles.

C'est aussi l'occasion d'actualiser mon schéma.

Revenus-Google-2011Q4.png


On y constate encore une fois que l'écart entre les revenus publicitaires des sites propres à Google et ceux du réseau Adsense continue de se creuser. Sur une année, entre 2010 et 2011, la part des revenus issus de la publicité sur les sites de Google est passée de 66% à 69%, pour un chiffre d'affaires global de 37,9 Mds de $ et un bénéfice de 9,7 Mds soit une rentabilité commerciale intéressante de presque 26%. En 2004, la rentabilité n'était "que" de 12,5%, tandis que les revenus des deux réseaux faisaient pratiquement jeu égal. Autrement dit le recentrage de Google sur ses activités, ou - ce qui revient au même - l'enfermement de l'internaute dans ses services, n'est pas vraiment désintéressé.






Il est une autre façon de le repérer. J'ai déjà eu l'occasion de montrer combien l'évolution de la page d'accueil de Google reflétait les choix stratégiques de la firme (ici et ).

Page-Google-22-01-2012.jpg




La nouvelle page d'accueil de Google, telle qu'elle apparait en Amérique du nord est révélatrice de l'évolution de la stratégie, par son changement d'esthétique, comme par l'occupation nouvelle de l'espace de la page : moins de recherche (search) même si elle reste au centre, plus de services personnalisés... sans oublier Chrome dont on connait la place essentielle dans l'enfermement de l'internaute (v. Framasoft).

Et quand on passe la souris sur more, on obtient :

Page-Google-22-01-2012-_2_.jpg




C'est une façon très parlante de visualiser la dérive du coeur du métier de Google, autrefois moteur ouvert sur l'ensemble du Web, aujourd'hui de plus en plus un ensemble de services cernant l'espace documentaire de l'individu. On constate néanmoins que la culture première de la firme reste le texte, la deuxième dimension du document. On ne trouve sur cette page aucune image, sinon les icônes des services rangées en liste dans un tableau comme du texte et toujours documentées par leur nom.

Actu 26-01-2012

Sur la concurrence Google / FaceBook, voir :

Mathew Ingram, « Facebook picks fight with Google over who is more evil », GigaOM, janvier 23, 2012.

samedi 03 décembre 2011

Pourquoi Google est un média

Dans un commentaire du précédent billet, Piotr conteste ma proposition de considérer Google comme un média. Voici ses arguments :

J'ai du mal à assimiler Google à un média : il me semble qu'un média diffuse des contenus, ce qui n'est le cas de Google qu'accessoirement. Enfin, rapprocher une indépendance qui serait revendiquée par Google de celle qui l'est effectivement par le New York Times est malheureux car cela suppose que Google soit animé par une éthique journalistique, ce qui n'est évidemment pas le cas. J'ajoute qu'un média a pour effet de rémunérer la production de contenus, ce qui n'est pas non plus le cas de Google.

Je dois le remercier de son commentaire, qui me donne l'occasion de préciser les choses. Je crois, bien sûr, qu'il se trompe mais son propos mérite discussion car il me semble être assez largement partagé et risquer de brider l'analyse. Reprenons ses arguments les uns après les autres (en italique-gras).

Un média diffuse des contenus, ce qui n'est le cas de Google qu'accessoirement.

Le moteur de recherche de Google donne accès à du contenu et ne le diffuse pas vraiment au sens strict, en effet. La diffusion et l'accès sont deux activités différentes et qui peuvent être économiquement antagoniques. Je l'ai montré dans deux billets anciens (ici et). Pour autant, elles ont été déjà articulées dans l'histoire. C'était le cas des bibliothèques avant la popularisation de l'imprimerie à caractères mobiles qui a marginalisé les scriptoria et donc éloigné l'activité de diffusion de celle de l'accès. Et c'est aujourd'hui le cas des médias de diffusion qui proposent sur le web une activité d'accès en ouvrant leurs archives, et aussi en direct dès qu'un article est mis en ligne et ne sera lu que si l'internaute prend la peine d'y accéder.

Ainsi la différence entre diffusion et accès s'estompe sur le web, même si elle ne disparait pas (on la retrouve par ex dans la différence entre le pull et le push). Dès lors, définir le média par la fonction de diffusion et non celle d'accès était déjà discutable, c'est inopérant aujourd'hui.

Rapprocher une indépendance qui serait revendiquée par Google de celle qui l'est effectivement par le New York Times est malheureux car cela suppose que Google soit animé par une éthique journalistique, ce qui n'est évidemment pas le cas.

Oui, Google n'est évidemment pas animé par une éthique journalistique. Cela signifie-t-il pour autant qu'il ne revendique pas une indépendance, que cela ne relève pas d'une éthique de média et que cette dernière ne puisse être comparée à celle du journalisme ? Ma réponse est non à ces trois dernières négations.

Commençons par l'éthique journalistique. J'ai eu déjà l'occasion sur ce blogue de rappeler combien elle était relative et récente (tournant XIXe-XXe) et combien le web la faisait évoluer(ici et .

Google, de son côté, revendique clairement une indépendance et a ce qu'il faut bien appeler une éthique, même si on peut (doit) la discuter. Cela était perceptible dès le premier papier de Brin et Page (ici), et est exprimé aujourd'hui sur le site de la firme en dix principes dans la page intitulée ''Notre philosophie'', dont je ne reprends ci-dessous que quelques brefs extraits :

" 1. Rechercher l'intérêt de l'utilisateur et le reste suivra

Depuis sa création, la société Google concentre ses efforts sur le confort d'utilisation des internautes. Lorsque nous concevons un nouveau navigateur Internet ou lorsque nous apportons un plus à l'aspect de notre page d'accueil, c'est votre confort que nous cherchons à satisfaire, et non un quelconque objectif interne ni les exigences de résultats de la société.

2. Mieux vaut faire une seule chose et la faire bien

Le cœur de métier de Google est la recherche sur Internet.

3. Toujours plus vite

4. La démocratie fonctionne sur le Web

La recherche Google fonctionne, car sa technologie fait confiance aux millions d'internautes qui ajoutent des liens sur leur site Web pour déterminer la valeur du contenu d'autres sites.

5. Vous n'êtes pas toujours au bureau lorsque vous vous posez une question

6. Il est possible de gagner de l'argent sans vendre son âme au diable

Pour assurer un service à tous nos utilisateurs (qu'ils soient ou non annonceurs), nous avons défini un ensemble de principes sur nos programmes et nos pratiques publicitaires :

Google autorise la diffusion d'annonces sur ses pages de résultats uniquement si ces annonces sont en lien direct avec les résultats obtenus.

Nous pensons que la publicité peut être efficace sans être envahissante. Google n'accepte pas les publicités sous forme de fenêtres pop-up, qui gênent la lisibilité des pages consultées.

Sur Google, les publicités sont toujours clairement identifiées comme "liens commerciaux". (..) Nos utilisateurs font confiance à l'objectivité de Google et rien ne pourrait justifier la remise en cause de cette confiance.

7. La masse d'informations continue de croître

8. Le besoin d'informations ne connaît aucune frontière

Notre société a été fondée en Californie, mais notre mission consiste à faciliter l'accès aux informations dans le monde entier et dans toutes les langues.

9. On peut être sérieux sans porter de cravate

10. Il faut toujours aller de l'avant

Même si vous ne savez pas exactement ce que vous recherchez, c'est notre rôle de trouver une réponse sur le Web, et pas le vôtre. "

On peut discuter du bien fondé, de la sincérité et de l'application de ces principes, tout comme on peut discuter de l'objectivité des journalistes ou de la position d'un journal, mais il est difficile de ne pas y voir l'affirmation d'une indépendance, qui relève bien d'une éthique de média. On y retrouve les grands classiques : la démocratie, l'information pour tous, le rejet des pressions, la recherche sans fin de l'information.

En réalité, l'importance d'une éthique pour ce qu'on appelle maintenant l'activité de "curation" commence à être discutée et c'est bien normal (par ex ici ou ou encore ). On peut aussi remarquer et regretter l'absence d'allusion à la protection de la vie privée dans les principes de la philosophie de Google, qui montre qu'il reste encore des débats et des combats à mener pour que l'activité du web prenne sa juste place dans l'espace public médiatique.

Sans doute, journalisme et moteur de recherche n'ont pas la même posture par rapport à l'information, mais on peut constater que les modèles culturels y pèsent tout autant. Ainsi, l'idéal du journalisme à la française est marqué par le rôle de l'intellectuel dans la dénonciation des scandales (Panama, Dreyfus) avec une forte connotation littéraire, tandis que l'idéal américain s'appuie sur l'exemple de la science pour mettre en avant l'objectivité (Lippmann). Comment ne pas voir le même type de clivages dans les débats et polémiques autour de Google, tout particulièrement au moment des polémiques sur Google-Book lancées, il y a quelques temps, par J.-N. Jeanneney ?

Enfin même s'il y avait une part de provocation de ma part, la comparaison entre le NYT et Google se justifie pleinement. L'un et l'autre sont les symboles du modèle nord-américain dans leur domaine et veulent faire école. Nous manquons de comparaison internationale sérieuse avec d'autres modèles (Naver en Corée, Baidu en Chine, Yandex en Russie).

Un média a pour effet de rémunérer la production de contenus, ce qui n'est pas non plus le cas de Google

La plupart des médias, sinon peut-être tous, ont démarré en ne rémunérant pas ou peu les contenus, voire en les piratant (à commencer par l'édition de livres). Il est probable qu'à l'avenir Google soit amené à rémunérer les contenus pour la part de son activité qui s'approche le plus de la diffusion. Cela est sensible pour YouTube, et ce fut au coeur des discussions sur Google-Book.

Mais il est vrai que Google, pour sa part principale (la recherche), se trouve du côté de l'accès et non de la diffusion, dans la même position que les bibliothèques. Cela le conduit à considérer le contenu comme une donnée librement accessible, dans un modèle proche de celui de la bibliothèque qui retire les documents d'une relation commerciale pour les mettre librement à disposition. On pourrait pour cette raison mettre les bibliothèques et Google en dehors du secteur des médias, mais alors on s'interdit de poursuivre lucidement l'analyse, comme je l'ai dit plus haut, et comme je l'ai présenté, par ex ici.

- page 1 de 10