Economie du document (Bloc-notes de Jean-Michel Salaün)

Repérage de données sur l'économie des documents dans un environnement numérique

Aller au contenu | Aller au menu | Aller à la recherche

Mot-clé - 512. À LA RECHERCHE DU NEODOCUMENT ; Les paradoxes du néodocument ; Lecture et calcul

Fil des billets

mercredi 28 novembre 2012

De la pertinence des algorithmes (T. Gillepsie)

En écho aux interventions de D. Cardon et D. Kaplan au colloque archinfo et au webinaire Pédauque sur l'importance d'analyser de l'intérieur les conséquences de l'algorithme de recherche de Google, voici un article de Tarleton Gillepsie qui pose clairement la question du rôle éditorial des algorithmes et de la nécessité de mieux en comprendre les conséquences :

Gillespie, Tarleton. “The Relevance of Algorithms". forthcoming, in Media Technologies, ed. Tarleton Gillespie, Pablo Boczkowski, and Kirsten Foot. Cambridge, MA: MIT Press.

Extraits (trad. JMS) :

Les algorithmes jouent un rôle croissant dans la sélection des informations les plus pertinentes pour nous, devenant un élément crucial de notre participation à la vie publique. Les moteurs de recherche nous aident à naviguer dans les énormes bases de données d'information ou sur l'ensemble du web. Les algorithmes de recommandation cartographient nos préférences par rapport aux autres, suggérant de nouvelles informations ou des informations oubliées parmi les morceaux de culture qui comptent pour nous. Les algorithmes gèrent nos interactions sur les sites de réseaux sociaux, mettant en avant des informations d'un ami et excluant celles d'un autre. Les algorithmes construisent ce qui est "chaud" ou "tendance" ou "le plus discuté", écrémant le bavardage apparemment sans fin qui nous est présenté. Ensemble les algorithmes ne font pas que nous aider à trouver l'information, ils donnent le moyen de savoir ce qu'il y a à savoir et comment le savoir, de participer au débat social et politique, et de nous familiariser avec la chose publique à laquelle nous participons. Ils sont aujourd'hui la clé logique qui gouverne le flux d'informations dont nous dépendons, détenant "le pouvoir d'activer et d'affecter du sens, gérant la façon dont sont perçues les informations par les utilisateurs, la "distribution du sensible" (Langlois 2012)."

(...)

Nous avons besoin d'interroger les algorithmes comme un élément clé de notre écosystème informationnel (Anderson 2011) et des formes culturelles émergeant dans leur ombre (Striphas 2011), avec une attention particulière sur où et de quelle manière ils peuvent avoir des ramifications politiques. Cet essai est une carte conceptuelle pour y arriver. Je soulignerai six dimensions de la pertinence des algorithmes publics (cad ayant des conséquences publiques) qui ont un poids politique :

  1. Les schémas d'inclusion : les choix en amont qui mettent quoi à la première place dans un index, qui excluent quoi ? Et comment les données rendent l'algorithme opérationnel
  2. Les cycles d'anticipation : les implications des fournisseurs d'algorithmes pour tenter de bien connaître et prévoir les utilisateurs et comment leurs conclusions importent
  3. L'évaluation de la pertinence : les critères par lesquels les algorithmes décident de ce qui est pertinent, et comment ces critères nous sont cachés, et comment ils agissent sur les choix concernant les connaissances correctes et légitimes
  4. La promesse d'objectivité des algorithmes : la façon dont les caractéristiques techniques des algorithmes sont placées comme un gage d'impartialité, et comment cette affirmation est défendue face à la contradiction
  5. L'intrication avec la pratique : comment les utilisateurs réarrangent leurs pratiques en fonction des algorithmes dont elles dépendent et comment ils peuvent transformer les algorithmes en terrain de contestation politique, parfois même pour interroger la politique de l'algorithme lui-même
  6. La production de publics par le calcul : comment la présentation algorithmique des publics à eux-mêmes construit la compréhension qu'ils ont d'eux-mêmes, et qui est le mieux placé pour profiter de cette connaissance

L'auteur développe chacune de ces dimensions en les illustrant par des exemples et en rappelant les débats auxquels elles renvoient. On peut lui reprocher de rester en retrait, n'amenant pas de données ou d'analyses inédites, mais son essai a le mérite de proposer un canevas précis pour avancer. Il est plus que temps, en effet, que ces questions soient posées et que l'on sorte des deux ornières opposées de la neutralité ou l'objectivité des calculs d'un côté et de la manipulation ou les stratégies perverses de l'autre. Le programme proposé par Tarleton Gillepsie est autant un programme à grande échelle pour les chercheurs en SHS qu'une feuille de route pour un organisme public de régulation.

Cerise sur le gâteau : un tel programme nous permettrait peut-être aussi de sortir des polémiques convenues autour du droit d'auteur en comprenant plus lucidement le rôle éditorial du web et donc en repérant et mesurant plus lucidement les responsabilités des uns et des autres.

29-11-2012

Hubert Guillaud fait ce jour un cr beaucoup plus détaillé que le mien dans InternetActu.

Voir aussi : Algorithms are Decision Systems de T Striphas.

Le débat parait donc lancé. Il serait utile de ne pas le confiner juste à notre époque contemporaine. On pourrait aussi s'inspirer de l'important travail d'A. Desrosières sur l'histoire des statistiques qui préfigure celle des algorithmes :

''La constitution d’un espace rendant possible le débat contradictoire sur les options de la cité suppose l’existence d’un minimum d’éléments de référence communs aux divers acteurs : langage pour mettre en forme les choses, pour dire les fins et les moyens de l’action, pour en discuter les résultats. Ce langage ne préexiste pas au débat : il est négocié, stabilisé, inscrit, puis déformé et défait peu à peu, au fil des interactions propres à un espace et une période historique données.''

Alain Desrosières, La politique des grands nombres : histoire de la raison statistique. Paris : La Découverte, 2000,

J'avais proposé quelques pistes pour l'INRIA à l'occasion de son école sur le Web de données.

vendredi 31 août 2012

Big data, la fourmilière ou les Lumières

Edge vient de publier une conversation avec Alex Pentland qui a fondé au MIT un centre de recherche transversal intitulé : Center for Connection Science and Engineering. J'en reproduis de larges extraits traduits ci-dessous, mais l'ensemble mérite lecture.

« Reinventing Society In The Wake Of Big Data ». Edge, août 30, 2012. .

Je crois que le pouvoir des Bib Data c'est qu'elles renseignent sur les gens plutôt que sur leurs croyance. Il s'agit du comportement des consommateurs, des employés et des prospects pour vos nouvelles affaires. Contrairement à ce que la plupart des gens croient, il ne s'agit pas des choses que vous postez sur Facebook, il ne s'agit pas de vos recherches sur Google, et ce ne sont pas non plus les données tirées du fonctionnement interne de l'entreprise et des RFID. Les Big Data proviennent de choses comme les données de localisation de votre téléphone mobile ou de votre carte de crédit. Ce sont les petites miettes de données que vous laissez derrière vous quand vous vous déplacez sur terre.

Ce que ces miettes racontent, c'est l'histoire de votre vie. Elles disent ce que vous avez choisi de faire. C'est très différent de ce que vous mettez sur Facebook. Ce que vous mettez sur Facebook, c'est ce que vous voudriez dire aux gens, rédigé selon les normes d'aujourd'hui. (...)

Si je peux connaitre certains de vos comportements, je peux inférer le reste juste en vous comparant avec la foule de ceux qui vous ressemblent. Vous pouvez raconter toutes sortes de choses sur une personne, même si elle ne sont pas explicitement dans les données, parce que les gens sont tellement pris dans le tissu social environnant qui détermine le genre de choses qu'ils pensent normales, et les comportements qu'ils vont apprendre les uns des autres. (...)

Ce qui compte vraiment, c'est comment les gens sont reliés les uns aux autres par les machines et comment ils créent un marché financier, un gouvernement, une entreprise et d'autres structures sociales. (...)

C'est la promesse d'un système financier qui ne s'écroule pas, de gouvernements qui ne soient pas embourbés dans l'inaction, de systèmes de santé qui fonctionnent vraiment, et ainsi de suite, et ainsi de suite. (...)

Bien qu'il soit utile de raisonner sur des moyennes, les phénomènes sociaux sont faits en réalité de millions de petites transactions entre les individus. Il existe des modèles dans ces petites transactions qui sont responsables du krach boursier ou du printemps arabe. (...)

Cela veut dire que vous pouvez construire des villes plus efficaces, beaucoup plus humaines et qui dépensent énormément moins d'énergie. Mais vous avez besoin de voir les gens bouger pour obtenir ces résultats. (...)

Y a-t-il une opposition (au partage des données dans les entreprises) ? Étonnamment, peu. Les historiques de l'internet sont sans doute les plus opposés parce que (et je ne leur reproche pas) Facebook et Google ont grandi dans un monde complètement déréglementé. Pour eux, il est naturel de penser qu'ils ont le contrôle de leurs données, mais lentement, lentement ils en viennent à admettre qu'ils devront faire des compromis. (...)

Ce nouveau monde pourrait faire de George Orwell un petit joueur manquant d'imagination. Il est devenu très clair que l'on doit réfléchir fortement à la défense de la vie privée et à la propriété des données. George Orwell n'avait pas vu que si vous pouvez observer les modèles de comportements des gens qui interéagissent vous pouviez alors prévoir des choses comme qui va voter pour quoi ou comment va-t-il réagir à des situations variées comme un changement dans les réglements et ainsi de suite. Vous pouvez construire quelque chose qui, en première approximation ressemble vraiment à l'empire du mal. Et, bien sûr, certains chercheront à le faire. (...)

Même si on peut penser qu'il y a encore loin entre cette présentation et les réalisations concrètes, c'est une édifiante lecture sociale du mouvement des Big data, et de la redocumentarisation des personnes, faisant la différence entre l'explicite (le publié) et l'implicite (l'agit) montrant la bascule de l'explication statistique vers l'algorithmie. Il y a aussi derrière ce discours une idéologie de la transparence qui mériterait d'être plus interrogée et mieux assumée. J'ai essayé de poser quelques questions à ce sujet, m'en tenant à la problématique documentaire, dans un article écrit pour l'INRIA :

Salaün, Jean-Michel. Du document à la donnée et retour. La fourmilière ou les Lumières. In "Le document numérique à l’heure du web de données", séminaire INRIA, 1er au 5 octobre 2012, Carnac. Paris, ADBS Éditions, 2012

04-09-2012

« Internet et les fourmis fonctionnent de la même manière | Slate ». Slate.fr.

05-09-2012

Driscoll, Kevin. « From Punched Cards to “Big Data”: A Social History of Database Populism ». communication 1 1, nᵒ. 1 (août 29, 2012). http://scholarworks.umass.edu/cpo/vol1/iss1/4.

vendredi 16 mars 2012

Le sens commun lu par Google

Google vient d'annoncer un important changement dans l'utilisation de ses algorithmes à l'issu notamment du rachat récent de la firme Metaweb (Wsj repéré par Abondance). Il s'agit pour certaines questions simples de donner directement la réponse en haut de la page, plutôt qu'une liste de liens y conduisant.

Extraits de l'article du Wsj qui reprend la présentation d'Amit Singhal, un des responsables du moteur (trad JMS) :

Le moteur s'approchera plus de "comment les hommes comprennent le monde" a dit M Singhal, remarquant que pour de nombreuses recherches aujourd'hui "nous croisons les doigts en espérant qu'il y ait bien une page où se trouve notre réponse." (..)

Selon ce changement, quelqu'un qui cherche "Lac Tahoe" verra les principaux "attributs" connus du moteur sur le lac, comme la localisation, l'altitude, la température moyenne ou sa salinité. Aujourd'hui, ceux qui cherchent "lac Tahoe" ne trouvent que des liens vers le site Web des visites, ses rubriques Wikipédia et un lien sur une carte.

Pour une question plus complexe comme : "quels sont les 10 plus grands lacs de la Californie ?", Google donnera la réponse plutôt que des liens vers d'autres sites. (..)

Par exemple, des gens qui cherchent un auteur particulier comme Ernest Hemingway pourront trouver sous le nouveau système une liste des livres de l'auteur qu'ils pourront feuilleter et des pages d'information sur d'autres auteurs ou livres pertinents, selon une personne au courant des plans de la firme. On peut supposer que Google proposera aussi d'acheter des livres. (..)

Quelqu'un de bien informé a dit que ce changement vers une recherche sémantique pourrait toucher les résultats de recherche de 10 à 20% de toutes les requêtes, soit des dizaines de milliards par mois. (..)

M Singhal a dit que Google et l'équipe du Metaweb, qui comprend aujourd'hui environ 50 ingénieurs, ont augmenté la taille de leur index à plus de 200 millions d'entités, en partie grâce au développement d'algorithmes d'extraction ou des formules mathématiques capables d'organiser les données disséminées sur le Web. Les organisations et agences gouvernementales ont été aussi approchées pour l'accès à leurs bases de données, y compris le CIA World Factbook, qui hébergent des informations encyclopédiques actualisées sur tous les pays du monde.

Une étape supplémentaire s'ouvre donc dans l'industrie de la lecture, la priorité mise par Google sur la deuxième dimension du document, le lu, proche des efforts du Web de données. De plus en plus, Google et Wikipédia deviennent complémentaires dans la construction d'un "sens commun" à partir des multiples documents disponibles. Il faut entendre ici sens commun dans toutes ses acceptions et il faudrait des études plus sérieuses que celles que j'ai consultées jusqu'ici à propos des conséquences de cette évolution globale du "lu" sur notre rapport au savoir, sur "comment les hommes comprennent le monde ?". Est-il raisonnable de laisser la réponse à cette question aux aléas de la stratégie d'une firme commerciale ?

dimanche 12 février 2012

Le Web sous tension (2)

Voici enfin la nouvelle version du Web sous tension de Roger II Pédauque !

L'écriture collective du texte de Roger II a pris du retard. Le temps de la coordination entre les membres du groupe initial et celui de la maturation de la réflexion est très éloigné de la réactivité de l'internet.

Voici comment s'est déroulé le processus. Dans une première étape, les auteurs des différentes parties ont intégré les commentaires du texte initial et celui-ci a été largement remanié. Puis, constatant que cette nouvelle version ne répondait pas à notre attente, nous nous sommes réunis au cours d'un séminaire de deux jours, nous répartissant la critique du texte. Il y a été décidé de publier une nouvelle version du texte en deux temps :

  1. Tout d'abord un résumé soulignant l'essentiel de l'enjeu sur le ton d'un manifeste, c'est ce résumé qui est aujourd'hui mis en ligne et soumis à la critique.
  2. Ensuite, certaines parties, amendées et corrigées du texte initial serviront de développements et d'illustrations des propos du résumé. Le texte, alors complet, sera publié courant avril.

Nous avons aussi prévu une suite, sous une forme différente, intégrant toutes ces réflexions.

Je crois que cela valait de coup de prendre son temps... Le temps est justement la principale tension du Web que Roger II a fait ressortir. Le nouveau texte est là :

Et pour un accès direct, c'est ici.

mardi 17 avril 2007

E-science = redocumentarisation de la science

Si certains doutent encore de l'importance de l'e-science pour les bibliothèques ou de celle de la redocumentarisation en cours dans la science. La lecture de ce petit dossier sur l'expérience britannique devrait les convaincre.

Le programme e-science au Royaume-Uni, dossier réalisé par l'ambassade de France à Londres, mars 2007. 10p.

Introduction :

Il y a moins de 50 ans, l'avancée de la recherche se faisait par la collecte d'informations dans les bibliothèques, par un réseau de communication restreint à l'entourage proche des chercheurs et par des calculs essentiellement faits à la main ou à la règle à calcul. L'arrivée de l'informatique et de l'ordinateur a provoqué un énorme bond en avant dans la gestion de l'information. Plus besoin d'avoir d'immenses étagères pour stocker ses informations, plus besoin de passer du temps devant un monticule de brochures. Un seul ordinateur est capable de stocker davantage d'information qu'une bibliothèque « papier ». Les calculs se font instantanément ; l'ordinateur est capable d'effectuer plusieurs milliers d'opérations simples à la seconde.

A partir des années 70, Internet a provoqué un second bond pour la diffusion de l'information, offrant la possibilité aux chercheurs de mettre en commun leurs résultats et de communiquer plus facilement avec leurs collègues du monde entier. Cependant, les informations sont regroupées sous différents formats et leur qualité et leur pérennité ne sont pas garanties. Les chercheurs travaillent dans diverses universités et entreprises, dans diverses régions et différents pays. Les logiciels utilisés sont souvent incompatibles. Il leur est donc parfois difficile de communiquer directement entre eux.

L'e-Science est aujourd'hui à la veille de révolutionner la recherche et les échanges d'informations. (..)

Conclusion :

Le Royaume-Uni a déjà relevé beaucoup de défis pour la mise en place de l'e-Science et plusieurs avancées scientifiques ont été effectuées grâce à elle. Cependant, nous ne sommes qu'au début d'une nouvelle technologie qui devrait révolutionner le monde scientifique. Plusieurs pays du monde entier ont suivi l'initiative du Grid. En 2002, le ministère de l'éduction chinois a lancé le projet ChinaGrid. Les Allemands ont débuté en 2005 le DGrid dans une initiative pour l'e-Science. Au Japon, la National Research Grid Initiative (NAGERI) a été mise en place par le Ministère de l'éducation, de la culture, des sports, de la science et technologie. En 2003, la France lance le projet Grid5000 avec neuf centres répartis dans tout le pays ; ce projet devrait aboutir en 2008. Aux Etats-Unis, l'initiative pour le US TeraGrid a été lancée en 2000. La Commission Européenne est, depuis mars 2006, à la deuxième phase du projet Enabling Grids for e-Science in Europe lancé en 2004.

Le Royaume-Uni et les Etats-Unis ont été les pionniers d'une nouvelle technologie qui devrait bouleverser le monde de la science dans les prochaines années.

Repéré par Prosper.

- page 1 de 2