Economie du document (Bloc-notes de Jean-Michel Salaün)

Repérage de données sur l'économie des documents dans un environnement numérique

Aller au contenu | Aller au menu | Aller à la recherche

Mot-clé -

Fil des billets

mercredi 11 janvier 2012

Le papier est un terminal comme un autre

Début 2012, on est loin des prédictions apocalyptiques de Pierre-Marie de Biasi sur l'explosion de la demande de papier et plus encore de leur contraire sur le bureau sans papier (wkp). La consommation de papier graphique a fortement augmenté jusqu'aux années 2000 et aurait plutôt tendance à stagner et reculer ces toutes dernières années, mais il est difficile de dire s'il s'agit du résultat immédiat de la crise (qui réduit les échanges, et donc les documents) ou de l'effet à retardement du numérique (dont les effets sur les pratiques sont plus lents que l'implantation des systèmes), sans doute une combinaison des deux.

Un observateur attentif, Jacques de Rotalier, note que sur les prévisions mondiales 2010-2015 globalement, les zones développées devraient voir leur consommation diminuer légèrement (-1,5%) tandis que celle des zones émergentes devrait augmenter de 4 à 5%. La fusion de ces chiffres donnerait un supplément de consommation mondiale de 2,5 à 3% l’an : on est loin du développement exponentiel du numérique !. On ne dispose pas encore des chiffres pour 2011, mais en France la production de papier à usage graphique a diminué de 3,9% sur les dix premiers mois de l'année, d'après le recueil mensuel de la COPACEL. J'actualiserai les chiffres quand ils seront connus. En résumé la consommation de papier graphique reste en chiffres absolus très forte, même si elle a tendance à se tasser ces dernières années, notamment à cause de la réduction du papier journal.

Actualisation, conférence de presse de la COPACEL (signalée par J de Rotalier, merci à lui)

Donsommation-papier-France.jpg

Consommation-papier-France-2.bmp

La problématique courante qui tend à faire du numérique un substitut au papier est ambigüe. En réalité, la question est moins celle du numérique que de l'affichage ou de la sortie, de l'artefact qui autorise la lecture, du support sur lequel s'affichent les signes, qui bascule selon les usages et les opportunités entre l'écran ou le papier imprimé. Pour bien analyser les positions respectives de l'un et de l'autre, il faut admettre qu'il ne s'agit plus aujourd'hui que de deux modalités complémentaires, éventuellement concurrentes, d'affichage de documents tous numériques. On peut, pour commencer, visionner cette petite vidéo qui m'a donné l'idée de ce billet :

Hello Little Printer, available 2012 from BERG on Vimeo.

Repéré par H. Bienvault

Il y a plus de formats différents de papier imprimé correspondant à des usages différents que de types d'écran. Délà le codex du livre n'est pas celui du journal, l'un et l'autre, se déclinant en diverses familles selon le genre ou la régularité des publications. Mais le codex n'est pas, non plus, la seule forme possible pour des documents imprimés. La feuille simple connait aussi divers formats depuis l'affiche jusqu'au Post-it en passant par la liste de course et surtout l'explosion de la feuille A4, sortie d'imprimante, agrafée ou non. La vidéo nous montre que les imprimantes ne sont pas, non plus, condamnées à ce seul format et que les messages instantanés peuvent aussi se distribuer sur papier, y compris à distance.

Ce qui est sûr, c'est qu'aujourd'hui les documents, quels que soient leur format et leur modalité d'affichages sont tous à l'origine numériques, à de rares exceptions près. Sachant que l'écran et le papier restent privilégiés la question devient : quel est le support le plus opportun pour un usage donné ? Entre l'écran et le papier, chacun à ses avantages. Sans prétendre faire le tour de la question, on peut remarquer déjà des avantages contrastés entre l'un et l'autre selon trois critères de base : la permanence, la portabilité et la lecture. Je les ai résumés sur un petit tableau.

Papier-vs-ecran.png

Le papier imprimé l'emporte sur l'écran sur la permanence à court terme, tout simplement parce qu'il ne risque pas de s'effacer contrairement à l'écran, c'est cet avantage qui est mis en avant dans la vidéo. Mais à moyen terme, l'écran l'emporte car le papier est encombrant et devient vite difficile à retrouver, tandis que les serveurs gardent en permanence l'accessibilité immédiate des documents sur écran. Nul ne connait à long terme la possibilité de réafficher un document sur écran, tandis que le papier a fait ses preuves pour la conservation, pour peu que l'on prenne les bonnes mesures.

Un document individuel est en général plus facile à transporter sur papier, pourvu qu'il ne soit pas trop volumineux. Inversement, dès que le nombre de documents s'accroit, l'écran qui facilite l'ubiquité reprend l'avantage.

Enfin les modalités de lecture ont des avantages aussi contrastés dans les deux cas. Le feuilletage est plus simple sur papier, car il autorise la vue simultanée des feuilles sans trop d'encombrement de l'espace. Par contre s'il s'agit de naviguer d'un document à l'autre de façon plus ou moins aléatoire et d'y exécuter des traitements, l'écran est plus performant.

Sans doute on pourrait discuter ces affirmations et proposer d'autres critères. Je voulais juste ici suggérer des pistes de raisonnement. Celles-ci me permettent de compléter par une ligne mon tableau des différents modèles de publication déjà présenté dans un précédent billet. Je n'ai pas le temps de commenter. Ce sera pour une autre fois. Mais j'attire votre attention sur le critère de l'espace et du temps pour expliquer aussi bien les différents formats papiers (y compris l'impossibilité de rendre compte directement du flot) que les formats d'écran.

Le papier et les cinq modèles d'industries de la mémoire

lundi 26 septembre 2011

Vu enfermé, lu décontenancé (Biennale de Lyon)

Dédicace spéciale à Pauline. Petite promenade documentaire à la Biennale de Lyon.

Les œuvres d'art sont des protodocuments et peuvent être analysées à partir des trois dimensions (vu, lu, su). Il est possible même que la valeur artistique d'une œuvre vienne justement de la subversion des places respectives des trois dimensions. Quoi qu'il en soit certains artistes utilisent, plus ou moins consciemment, directement cette grille pour construire leur œuvre. À la Biennale de l'art contemporain de Lyon, deux œuvres, en contraste radical, illustrent chacune à leur manière combien le jeu entre les dimensions peut être stimulant et dérangeant.

Le premier Robert Kusmirowski présente une œuvre monumentale. Au premier niveau du lieu d'exposition on ne voit qu'un mur sinistre surmonté de barbelés délimitant un espace circulaire inaccessible. Le niveau supérieur offre une vue plongeante au-dessus du mur et voilà ce que l'on découvre :

Robert_Kusmirowski-Biennale_Lyon_2011.jpg

Tout dans les couleurs, dans l'organisation des lieux, dans les objets, bibliothèques monumentales, livres, machines crasseuses, bidons, casiers de typographes, renvoie à une organisation documentaire mi-XIXe à mi-XXe avec la suggestion d'un scénario sinistre d'incinération de livres.. On brule les objets (vu), on interdit la transmission (su) par la circularité du mur et le contenu (lu) est absent, déchiré, éparpillé sur le sol. L'ensemble de l’œuvre est construite sur la primauté de la première dimension qui, enfermée et détruite interdit le déploiement des deux autres. Par ailleurs, c'est bien parce que la scène renvoie à un décor familier et qu'elle est exposée à la Biennale que je peux en suggérer une interprétation. En tant qu’œuvre, il s'agit d'un protodocument articulant bien les trois dimensions.

La seconde œuvre, due à Dominique Petitgand, est minimaliste : À la merci (At the mercy). Dans une pièce nue, il n'y a qu'un haut-parleur et un écran de télévision. Dans le haut-parleur une voix de petit garçon lit des mots que répète à sa suite un adulte. L'ensemble forme une longue phrase française qu'il est impossible de comprendre à cause du caractère haché de la lecture ânonnée. Sur l'écran défile les mêmes mots, mais en anglais, que l'on comprend avec un minimum de compétence de cette langue et grâce à la traduction sonore, mais qui sonnent différemment. Les mots les plus longs sont coupés en deux, aussi bien à l'oral qu'à l'écrit, mais nécessairement sur des prononciations différentes, accentuant le caractère déconcertant de l'exercice de lecture. Ici l'accent est mis à l'évidence sur le «lu», perturbé par la triple forme (vu) constituée des deux voix et de l'image des mots redondantes et embrouillantes, car on lit aussi avec les sons (S Dehaene). Le «su» est alors bloqué. Mais, par ailleurs, comme dans l'exemple précédent l'ensemble forme un joli et émouvant poème dont les trois dimensions sont articulées dans un protodocument.

vendredi 11 février 2011

Paradoxes de la mesure de l'information

Le numéro de Science qui vient de sortir (ici) est entièrement consacré aux questions posées par l'explosion quantitative des flux de données pour la recherche. Les articles concernent autant les transformations sur des disciplines (climat, écologie, neuroscience, santé, sciences sociales, biologie, génomique, physique des particules, astrophysique..) que des problématiques transversales (visualisation 3D, théorisation des capteurs et du signal, métaconnaissances, mesure de l'information). Un numéro très riche donc, essentiel témoignant d'un tournant fondamental dans la construction et l'exposition de nos savoirs.

Avant de présenter dans un futur billet un article particulièrement stimulant sur le traitement des métaconnaissances dans les articles scientifiques (ici), je voudrais alerter sur les interprétations trop rapides que l'on peut faire d'un autre.

Martin Hilbert et Priscilla Lopez, “The World's Technological Capacity to Store, Communicate, and Compute Information,” Science Express (Février 11, 2011): 692-693. ()

Celui-ci reprend un leitmotiv des sciences de l'information : la mesure de l'explosion de l'information. Sans surprise car il fait image et paraît illustrer ou même démontrer scientifiquement d'une situation que chacun pressent, il a déjà été largement signalé et commenté par la presse (par ex ici, , , ou pour être en résonance avec mon sujet ). Il tente, en effet, de mesurer l'information enregistrée, l'information communiquée et l'activité de calcul. Ici je ne reprendrai que le raisonnement concernant l'information enregistrée.

L'ensemble peut-être résumé par cette diapo et trois citations :

Hilbert-Lopez-Science-11-02-2011.jpg

Extraits (trad JMS) :

Le montant total d'information s'est accru de 2,6 exaoctets (10 puissance 20) compressés de façon optimale en 1986 à 15,6 en 1993, plus de 54,5 en 2000, à 295 en 2007. C'est l'équivalent de pas moins d'un cédérom de 730 Mo par personne en 1986 (539 Mo), en gros 4 cédéroms par personne en 1993, 12 l'année 2000 et presque 61 en 2007. (..)

En 1986, les disques vinyles comptaient encore pour une part significative (14%), tout comme les cassettes audio analogiques (12%) et la photo (5 et 8%). Ce n'est qu'à partir de 2000 que le numérique a commencé à compter pour notre mémoire technologique, représentant 25% du total. Les disques durs se taillent la part du lion en 2007 (52%), les disques optiques font plus du quart (28%) et les bandes numériques environ 11%. Les solutions de stockage sur papier prennent une part décroissante (0,33% en 1986 et 0,007% en 2007), bien que leur capacité n'a pas cessé d'augmenter en terme absolu de 8,7 à 19,4 Petaoctets compressés de façon optimale.

Si leur démonstration me parait bien illustrer la rapidité de la bascule vers le numérique, elle pose une question préalable quant à l'étalon de mesure et donc son interprétation. Voici donc les éléments à ce sujet, qu'on ne retrouve malheureusement pas dans les comte-rendus de presse :

L'information dans sa conception théorique est l'opposée de l'incertitude. Shannon a défini un octet comme la quantité d'information qui réduisait l'incertitude de moitié (dans un espace de probabilité comme des lettres de l'alphabet ou des pixels sur une échelle de couleur). Cette définition est indépendante de la tâche spécifique ou du contenu. Après normalisation en octets compressés nous pouvons dire par exemple « une image de journal carrée de 6cm de côté est équivalente à 1.000 mots », parce que les deux demandent le même nombre moyen de décisions binaires oui/non pour résoudre le même montant d'incertitude.

Cet étalon est classique, c'est celui de la théorie générale de l'information de Shannon (wkp). Il a déjà été beaucoup discuté, car il fait référence à concept d'information particulier, qui sert à l'optimisation du signal. Certains, notamment Weaver par la cybernétique, ont voulu l'étendre à toute situation de communication, non sans ambiguïtés (wkp). Mais s'il est dans cet article cohérent de l'employer pour mesurer les capacités de stockage informatique, cela devient plus problématique lorsque que l'on déborde sur d'autres domaines et la polysémie du mot information nous fait vite déraper. Les auteurs de l'article ne manquent pas de tomber dans ce travers.

Même en restant dans la perspective mécaniste qui est la leur, deux objections viennent rapidement à l'esprit :

  • Mesurer l'information contenue sur un support analogique avec un étalon numérique préjuge déjà que l'ensemble de celle-ci sera converti en numérique. Supposons un instant que nous fassions l'inverse, mesurer l'information numérique par un étalon papier, c'est à dire tout simplement mesurer la surface de la sortie imprimante ramenée à un format moyen (comme les auteurs ont pris une compression optimale pour le signal). Nous aurions alors approximativement le résultat suivant pour le même exemple : « une image de journal carrée de 6cm de côté est équivalente à 76 mots » avec une mesure indépendante de la tâche spécifique ou du contenu. Le rapport quantitatif entre l'image et l'écrit est totalement inversé.
  • Plus problématique encore, les auteurs concluent leur article par une comparaison entre la capacité humaine à traiter l'information par les neurones et la capacité des ordinateurs. Mais nous savons aujourd'hui la captation et le traitement du signal par les sens et un cerveau humain pour la lecture par exemple (wkp), n'a pas grand chose à voir avec celle d'un ordinateur. Et que penser de l'image vidéo à 25 images par seconde, traitée à l'évidence complètement différemment par l'œil humain, la persistance rétinienne et notre cerveau, et par un signal numérique et un ordinateur analysant séparément chaque image ?

Dès lors que mesurent vraiment les auteurs de l'article ?

Actu du 15 février

Voilà un bel exemple de ce que devient l'étude revisitée par la presse, et réduite à un schéma sans référence à la pertinence de la mesure ici le Washington Post

lundi 12 octobre 2009

Éco, Bouvard et Pécuchet

Interview de Umberto Eco dans Télérama, délicieux et parfaitement en phase avec ce blogue.

Umberto Eco : Le livre est une invention aussi indépassable que la roue ou le marteau , Télérama, Octobre 11, 2009, ici.

Morceaux choisis :

Robinson Crusoé sur son île aurait eu de quoi lire pendant trente ans avec une bible de Gutenberg. Si elle avait été numérisée dans un e-book, il en aurait profité pendant les trois heures d'autonomie de sa batterie. Vous pouvez jeter un livre du cinquième étage, vous le retrouverez plus ou moins complet en bas. Si vous jetez un e-book, il sera à coup sûr détruit. Nous pouvons encore aujourd'hui lire des livres vieux de cinq cents ans. En revanche, nous n'avons aucune preuve scientifique que le livre électronique puisse durer au-delà de trois ou quatre ans. En tout cas, il est raisonnable de douter, compte tenu de la nature de ses matériaux, qu'il conserve la même intensité magnétique pendant cinq cents ans. Le livre, c'est une invention aussi indépassable que la roue, le marteau ou la cuiller.

L'homme d'Internet est un homme de Gutenberg parce qu'il est obligé de lire, énormément. Ce qu'a révolutionné l'imprimerie, c'est la diffusion de l'écrit. Internet aussi. Les gens lisent, et probablement plus vite que leurs ancêtres. Ils passent d'un sujet à l'autre. Selon moi, Internet encourage la lecture de livres parce qu'il augmente la curiosité. Des statistiques ont démontré que ceux qui regardent beaucoup la télévision (mais raisonnablement), qui surfent beaucoup sur Internet (mais pas au point de passer leurs nuits sur des sites pornos), sont aussi ceux qui lisent le plus.

Revendiquer sa propre encyclopédie est typique de la bêtise ! La culture est là justement pour empêcher les Bouvard et Pécuchet de triompher.

jeudi 11 juin 2009

Éloge du tracé

Comme me l’a fait justement remarquer une lectrice attentive et critique, ce billet est une sorte d'oxymore : la manière dont il a été écrit en contredit le propos. En tapant avec mes doigts sur un clavier ordinaire d’ordinateur et regardant l’écran où les lettres apparaissaient ou disparaissaient selon les commandes absconses du clavier, que j’ai intégrées avec plus ou moins de dextérité depuis bien des années aujourd’hui, je m’éloigne du «tracé» dont je voudrais pourtant souligner la grande vertu.

Le billet m’a été inspiré par une collègue de l’EBSI, Christine Dufour, qui a acheté récemment un ordinateur portable muni d’un écran convertible en tablette graphique. Depuis elle en est devenue fan, son nouvel outil ne la quitte pas. En réunion suscitant la curiosité de ses voisins, elle prend des notes directement dessus en écriture cursive avec son stylet, immédiatement reconnue et intégrée par le logiciel. Dans son bureau elle lit les documents typographiés et les annotent de la même façon, comme autrefois le papier à plat sur la table et la main dessus.. sauf qu’il s’agit de documents électroniques et de signes intégrés dans la mémoire de l'ordinateur. Et, tout à la préparation de ses cours à cette époque de l’année, elle expérimente la possibilité d’intervenir avec son stylet directement sur l’image projetée, réglant la difficulté que connaissent bien des professeurs d’avoir à choisir entre projeter un PPT ou écrire au tableau, difficulté aggravée généralement par la superposition de l’écran et du tableau dans les amphithéâtres.

On oublie souvent que l’on écrit d’abord avec la main. Je veux dire que pour apprendre l’écriture, il faut domestiquer sa main de façon à ce qu’elle accompagne le mouvement du signe que l’on veut représenter. Les calligraphes le savent et des civilisations entières, comme la chinoise ou l’arabe, ont valorisé fortement la beauté du geste et sa traduction par une trace. Le geste épouse la forme des lettres en les traçant. La lecture, du moins dans sa forme moderne et compétente, réduit l’importante du geste.. sauf dans les annotations à la main qui permettent sa réappropriation en le caressant, pourrait-on dire. Mais l’apprentissage de la lecture passe par l’écriture et les ardoises ou cahiers sur lesquelles les enfants inscrivent et effacent laborieusement des lettres et des mots de mieux en mieux formés. Ces souvenirs restent enfouis dans notre mémoire, mais ils lient définitivement dans notre inconscient geste et écrit.

On pourrait aussi refaire l’histoire des documents au travers de cette relation, depuis les scribes, les moines copistes, l’imprimerie qui coupe la relation pour les documents publiés, la machine à écrire qui la coupe pour les documents non publiés.. et les tablettes qui permettent de retrouver le geste dans sa conséquence immédiate sur le signe par le tracé. Et je saute bien des étapes et des dimensions de l’analyse.

Cette dimension numérique nouvelle, au sens où elle entre maintenant dans un quotidien possible, est, je crois, d’une grande importance pour l’analyse documentaire, mais elle me parait oubliée des analyses sémiologiques du domaine numérique focalisées sur les e-books, le papier électronique ou encore l’étude des sites Web.

- page 1 de 2