Economie du document (Bloc-notes de Jean-Michel Salaün)

Repérage de données sur l'économie des documents dans un environnement numérique

Aller au contenu | Aller au menu | Aller à la recherche

samedi 25 août 2007

Médium pauvre, signes riches

Y a-t-il rapport entre les mangas japonais et les Têtes à claques québécoises ? Lointain dira-t-on, sinon qu'ils ont, les uns et les autres, de plus en plus de succès sur les téléphones cellulaires. Je voudrais en suggérer ici un autre, qui explique le premier, inattendu mais plein de leçons, au risque de chagriner peut-être quelques-uns de mes amis québécois, justement amoureux de la pureté de leur français.

Le succès des mangas au Japon de date pas d'hier. Ils forment une véritable industrie dont la bande dessinée, conçue pour être lue vite dans les transports en commun, est la pierre angulaire, mais qui déborde sur les dessins animés, les jeux vidéos et toute une gamme de produits dérivés.

Aujourd'hui, les mangas tirent le marché du e-book sur les cellulaires qui, selon un billet de l'Atelier a connu une croissance fulgurante de 331,3% à une valeur totale de 6,9 milliards de yens (environ 42,4 millions d’euros) en 2006 bien qu’il ne représentait que 1,6 milliards de yens (environ 9,8 millions d’euros) en 2005. On prévoit une croissance encore supérieure pour 2007.

De leur côté, le succès des Têtes à claques est beaucoup plus modeste (à l'échelle du Québec) et beaucoup plus récent. Mais, comme l'a signalé M. Lessard, ils viennent de s'implanter en France en participant à la campagne de promotion d'un opérateur de télécom pour ses nouveaux forfaits.

La valorisation du contenu sur les cellulaires est rendue difficile à cause des limites du médium : l'écran est petit, très petit. Le son est médiocre, même si les dernières générations promettent monts et merveilles. Et surtout le signal, pas toujours fiable, rend difficile l'envoi généralisé de contenus trop lourds, sauf dans les rares endroits où les infrastructures le permettent comme en Corée (voir ce billet).

Un des avantages du Japonais, dans sa forme écrite, est la multiplicité des signes qu'il utilise : Deux alphabets (un pour les mots originaires de l'ile, l'autre pour ceux venus d'ailleurs), l'utilisation fréquente de sinogrammes, et même la possibilité d'utiliser l'alphabet roman, lu par la plupart. Les mangas ont utilisé graphiquement ces facilités depuis leur origine, au point d'en faire un élément esthétique et signifiant. Cette richesse graphique se décline parfaitement dans des cases.. ou des écrans de téléphone donnant une grande expressivité au récit. On peut s'en convaincre facilement, même sans comprendre le Japonais en « feuilletant » un manga à partir cette page (cliquer p. ex. sur un des trois liens en haut et à gauche de la page). Inversement, la bande dessinée de l'école belge ou encore américaine, ne dispose pas de ces facilités. De même, l'exportation des mangas à l'extérieur du Japon réduit cet avantage. Il suffit de comparer les exemples précédents avec cette démo (cliquer sur l'encadré du haut) pour être convaincu.

Alors quel rapport avec les Têtes à claques ? Côté visuel, elles ne tiennent pas la comparaison. Il s'agit d'une esthétique Guignol laissant très peu de place à l'expressivité. Mais ce qu'elles perdent à l'image, elles le regagnent au son. Et là le parallèle est surprenant :

  • Comme les mangas utilisent deux alphabets pour une seule langue, les Têtes à claques utilisent deux Français (québécois et hexagonal). Ici par ex. Et voir le lexique sorti pour la campagne de promo citée.
  • Comme les premiers importent finement des signes de leur grand voisin, les seconds intègrent joyeusement des anglicismes. Voir le plus populaire.

Bien sûr ni les uns, ni les autres ne sont responsables de cette sémiotique qui fait partie de la culture du peuple, jouant l'une sur l'écriture, l'autre sur la parole. Néanmoins, les deux ont eu le talent de l'exploiter en transcendant les limites d'un médium.

Contrairement aux mangas, les Têtes à claques ne sont pas un genre, juste un succès ponctuel. Mais si l'on poursuit le raisonnement précédent, et que l'on pense à la diversité de la francophonie, il y a peut-être là matière à développement..

vendredi 17 août 2007

Le Web structuré

Repéré par Les petites cases

Voilà une série d'articles qui va faire débat, au moins chez mes anciens collègues du RTP-Doc, Michael K. Bergman a entrepris de définir et expliquer ce qu'il entend par le Web structuré (Structured Web) dont il donne la définition dans un premier billet (trad JMS) :

Le Web structuré est une collection de données-objet à l'intérieur de l'internet des documents et des bases de données qui peuvent être extraites, converties sous des formes accessibles, représentées de façon standardisées, partagées, utilisées à diverses fins, combinées, vues, analysées et qualifiées sans souci de leur forme d'origine ou de leur provenance.

(The structured Web is object-level data within Internet documents and databases that can be extracted, converted from available forms, represented in standard ways, shared, re-purposed, combined, viewed, analyzed and qualified without respect to originating form or provenance.)

Il ajoute :

Aujourd'hui, en ce moment et tout autour de nous, une transition fondamentale est en cours qui fait passer le Web d'un environnement centré sur le document à un environnement centré sur les données. Une convergence de standards, d'argumentations et des tendances déjà en place alimentent cette transition. Puisque les briques existent déjà, nous assistons à la construction de ce Web structuré à une vitesse étonnante.

Le concept de Web structuré est donc plus étroit et moins ambitieux que celui du Web Sémantique, mais il peut être réalisé avec les techonologies et connaissances d'aujourd'hui.

N'est-ce pas Roger qui a écrit, il y a déjà quatre ans maintenant, dans son premier texte :

Une évolution possible, mais non certaine, serait que les documents ainsi « rédigés » rejoignent des bases de données, centralisées ou distribuées, et que l’ensemble des fichiers s’apparente de plus en plus à un ou plusieurs vastes jeux de « legos » où des briques de différentes tailles, formes et usages seraient agencées selon des configurations très variées. Un dernier pas serait ainsi en train de se franchir : un document n'aurait de forme à proprement parler qu'à deux moments : celui de sa conception par son auteur qui devra le visualiser ou l'entendre, pour s'assurer qu'il correspond à ses choix (et encore ce n'est pas obligatoire si sa production relève du processus) et celui de sa re-construction par un lecteur. Il est peu probable que le document sera toujours identique dans l'un et l'autre cas. Une autre façon de concevoir cette évolution serait de considérer que le document est maintenant la base de données elle-même dont les différentes sorties ne seraient qu'une interprétation partielle de la richesse.

.. pour s'interroger sur la notion de texte construit dans ces conditions dans son second article et la faculté de construire des vérités partagées, ce qui est une fonction première du document, dans le troisième ? Et puisque je suis à faire la promo de Roger, je rappelle que ces textes ont été réunis sous forme de livre que l'on peut acheter ici.

Série sur le Web structuré, pour le moment trois billets conséquents :

mardi 14 août 2007

Roger et la trahison de Google Books

Inheritance and loss? A brief survey of Google Books by Paul Duguid First Monday, volume 12, number 8 (August 2007). Html

Un article sur la qualité de la numérisation de livres chez Google qui mérite attention, non pour ses constatations : la qualité est mauvaise, c'est bien connu et documenté, mais pour la conclusion. Extrait (trad JMS) :

Le Google Books Project est surement un programme important, sur plus d'un point même inestimable. C'est aussi, comme la preuve en a été brièvement administrée ici, un programme hautement problématique. Comptant sur la puissance de ses outils de recherche, Google a négligé des métadonnées élémentaires, comme le numéro de volume. La qualité de la numérisation (et donc on peut supposer celle de la recherche) est parfois totalement inadéquate. Les éditions proposées (à la recherche ou à la vente) sont, au mieux, regrettables. Étonnamment, cela me laisse penser que les techniciens de Google ont une vision plus romantique du livre que les bibliothécaires. Google Books considèrent les livres comme un entrepôt de sagesse à exploiter avec de nouveaux outils. Ils ne voient pas ce que les bibliothécaires savent : Les livres peuvent être des choses obtuses, obstinés et même odieuses. En général, ils ne se résignent pas à entrer sur une étagère standardisée, un scanner standardisé ou une ontologie standardisée. On ne peut non plus surmonter leurs contraintes en grattant le texte ou en développant des algorithmes. Sans doute ces stratégies sont utiles, mais en essayant de laisser de côté des contraintes vraiment simples (comme les volumes) ces stratégies sous-estiment le fait que les rigidités des livres sont en même temps des ressources qui précisent comment les auteurs et les éditeurs ont cherché à créer le contenu, le sens et la signification que Google cherche aujourd'hui à libérer. Même avec les meilleures technologies de recherche et de numérisation à sa disposition, il est imprudent d'ignorer les éléments livresque d'un livre. D'une façon plus générale, un transfert des artéfacts de communication complexes entre les générations de technologies est sûrement problématique et non automatique.

Finalement, considérant la transmission comme une assurance qualité, la question de la qualité dans le programme bibliothèque de Google Book nous rappelle que les formes nouvelles sont toujours susceptibles de parricide, détruisant dans le processus les ressources dont elles espèrent hériter. Cela reste problématique, par exemple, pour Google News. Dans leur offre gratuite d'actualités, cela risque de miner le flot entrant des sources sur la qualité desquelles Google News compte pour vivre. Cela est aussi vrai, à une moindre mesure, pour Google Books. Google compte ici sur l'assurance qualité des grandes bibliothèques qui collaborent au projet. Les bibliothèques de Harvard et de Standford ne voient pas leur réputation renforcées par la qualité douteuse de Tristram Shandy (note JMS :livre ayant servi à la démonstration de l'auteur), marquée à leur nom dans la base de données de Google. Et Tristram Shandy n'est pas le seul. Pour chaque page mal numérisée ou chaque livre mal catalogué, Google ternit non seulement sa propre réputation sur la qualité et la sophistication de sa technologie, mais aussi celle des institutions qui se sont alliées avec lui.(..)

Voilà des affirmations qui alimenteront sûrement les débats entre partisans et adversaires du projet.


Actu du 10-09-2008

Un des débats les plus intéressants a eu lieu sur le liste des historiens du livre SHARP-L entre P. Duguid et P. Leary, auteur de l'article Googling the Victorians (pdf) qui montre a contrario combien l'outil est utile pour les historiens. Le débat a été reproduit par P. Brandley dans un billet sur O'Reilly Radar sous le titre The Google exchange.


Mon intérêt est ailleurs, sur le fond de la question posée qui rappelle les réflexions de Roger et prennent ici une dimension économique que je n'avais pas encore perçue.

Le premier texte de Roger a fait ressortir trois dimensions indissociables pour définir un document que je traduirais aujourd'hui ainsi :

  • Anthropologique : Forme (Document = Support + Inscription)
  • Intellectuelle :Texte (Document = Code + représentation)
  • Sociale : Médium (Document = Mémoire + transaction)

ou sous forme d'un schéma :

La remarque de P. Duguid revient à dire que la transposition par Google d'un livre sous format numérique n'a pris en compte (et mal) que la dimension du texte, en s'appuyant sur sa valeur sociale construite par les bibliothèques et en oubliant la forme. On pourrait dire aussi qu'un livre ancien et prenant une valeur patrimoniale réduit l'importance du texte au profit de la forme ce qu'a oublié Google, spécialiste du traitement linguistique.

Une autre facette du problème est soulevée par l'auteur celui de la fidélité de la transposition qui pose la question de la très difficile définition du texte. Celle-ci est traité cette fois dans le deuxième texte de Roger, qui se demande notamment comment définir les invariants documentaires à préserver dans une transposition de forme.

Le plus intéressant donc, pour moi, dans l'article de P. Duguid est de constater que les réflexions de Roger trouvent ici un écho pratique doublé enjeu économique. Ces difficultés ont, en effet d'après l'auteur, des conséquences sur la valeur de l'objet créé et en retour sur celle de la source.

mardi 10 avril 2007

Le Washington Post réinventé

Une décoiffante agence japonaise, Information Architects, travaillant sur le design de la presse propose toute une série d'analyses radicales, pas toujours très étayées mais très stimulantes, sur l'avenir des médias. En particulier, on peut y contempler le monument Washington Post, revisité. Le mutant est un journal-wiki. Le design impressionnant par sa parentée avec celui du papier réduit par comparaison le site actuel à un tract brouillon. Les journalistes sont des sortes de chefs d'orchestre. Les "nouvelles" n'existent plus au sens strict car elles sont rapportées par les témoins, etc.

Je ne sais s'il s'agit vraiment de l'avenir de la presse, mais c'est une très belle illustration de la fragilité de son présent.

Repéré par Marketing interactif.

Le mythe de la non-lecture à l'écran

Voici une étude de Poynter faite par oculométrie auprès de 600 lecteurs entre un journal classique, un tabloïd et une lecture à l'écran à lire.. en version abrégée ou complète en pdf, html ou même en diapo ou vidéo.

L'étude confirme, parmi bien d'autres résultats, que l'idée d'une lecture moins attentive et moins longue à l'écran est un mythe, en tous cas dans les conditions, nécessairement un peu artificielles de cette expérience.

Repéré par Mediashift

- page 10 de 14 -