Naviguer et lire, l'attention et le regard
Par Jean-Michel Salaun le mardi 13 mai 2008, 18:02 - Sémio - Lien permanent
Deux études signalées récemment ont attiré mon œil ou mon attention. La nuance n'est pas ici fortuite.
L'une et l'autre s'intéresse à la lecture, mais leur perspective est radicalement différente et en dit long sur les réflexions qui restent à mener sur la dimension Forme de la redocumentarisation.
La première est proposée par le gourou de l'usabilité des sites Web, Jacob Nielsen, qui retraite les données d'une recherche antérieure réalisée par des chercheurs allemands :
How Little Do Users Read?, Jakob Nielsen's Alertbox, May 6, 2008. (ici), repéré par F. Pisani (là)
Harald Weinreich, Hartmut Obendorf, Eelco Herder, and Matthias Mayer, Not Quite the Average: An Empirical Study of Web Use, ACM Transactions on the Web, vol. 2, no. 1 (February 2008), article #5. (là)
Après les avoir nettoyées des évènements accidentels, il en conclut (extraits trad JMS) :
J'ai été capable de construire de très belles formules pour décrire les pratiques de lecture des usagers pour les pages qui contenaient entre 30 et 1250 mots. Pour de plus longues pages, la lecture devient tout à fait erratique. De toutes façons, les pages avec un énorme nombre de mots ne sont sans doute pas de «vraies» pages - ce sont probablement plutôt soit des articles scientifiques ou des clauses contractuelles, sur lesquelles les gens ne passent pas leur temps (dans notre recherche pour le livre Prioritizing Web Usability, nous avions trouvé que les gens ne lisent environ que 10% des textes qu'ils sont supposés «accepter»). (..)
D'habitude, je considère que la vitesse de lecture est de 200 mots par minute, mais les usagers de cette étude sont particulièrement cultivés. J'irai donc jusqu'à 250 mots par minute. À cette vitesse de lecture, les internautes peuvent lire 18 mots en 4,4 secondes. Dès lors, quand on ajoute du texte à une page, on peut considérer que les clients en liront 18%.(..)
La formule semble indiquer que les gens passent une partie de leur temps à comprendre la mise en page et les fonctionnalités de navigation, comme à regarder les images. Il est clair que les gens ne lisent pas durant chaque seconde de leur visite.
Pourtant la totalité du temps passé sur une page est nécessairement la limite la plus haute du temps de lecture. Ainsi nous pouvons calculer le nombre maximal de mots qu'un usager est capable de lire, s'il consacrait tout le temps de sa visite à cette activité. (..)
La courbe décline très rapidement. Dans une visite moyenne, les usagers lisent la moitié des informations seulemnt sur les pages qui ont 111 mots ou moins.
Sur la totalité des données, une page moyenne comprend 593 mots. Donc en moyenne, les usagers auront le temps de lire 28% des mots s'ils consacrent tout leur temps à la lecture. De façon plus réaliste, disons que les usagers lisent environ 20% du texte sur une page moyenne.
On peut évidemment contester ces affirmations, qui ont néanmoins le mérite de nous alerter sur la différence entre lire et naviguer. Mais le plus intéressant pour moi est de noter la posture prise : l'objectif est de faire coller les pages Web aux limites de l'attention de l'internaute. Puisque l'internaute lit très peu, on nous conseille d'écrire très peu. Ainsi peut se configurer un certain ordre documentaire du Web.
La perspective de l'autre étude est tout autre. Je l'ai découverte grâce à Alain Pierrot (ici). Elle a été réalisée dans le mythique centre de recherche de Fuji Xerox à Palo Alto. Il s'agit de reformater des zônes d'un document afin qu'elles soient lisibles sur des terminaux de différents formats, en particulier sur les écrans minuscules d'un téléphone cellulaire. La meilleure synthèse est sur ce diaporama :
Seamless Documents, Inside Innovation at Xerox, Palo Alto California, 28029 avril 2008 Pdf
L’objectif est ici de permettre au lecteur de lire un passage préalablement repéré d’un document sur différents terminaux et tout particulièrement les écrans minuscules des téléphones cellulaires. Il est facile de comprendre l’enjeu. Le principe même du XML est de séparer la forme du contenu. On voudrait pouvoir lire chaque document sur n’importe quel support. Mais il reste que la mise en page a une signification et qu’il n’est pas anodin pour un document de passer d’un support à un autre d’une autre configuration. La proposition est ici de laisser la main au lecteur pour signaler les passages qu’il souhaite lire.
Mais tout comme dans l'étude précédente, ce qui m'intéresse le plus est la posture. Ce n'est pas pour rien que Xerox s'appelle The Document Company. Le point de départ n'est pas ici l'attention du lecteur, mais la surface du document.
Dans la première étude, l’attention est limitée et il faut produire des documents répondant à cette contrainte. Dans la seconde, c’est la surface du terminal qui est limitée et il faut pouvoir redécouper les documents pour qu’ils rentrent dans un espace contraint. Deux objectifs de redocumentarisation à partir d’un raisonnement sur la forme aux prémisses forts différents.
Commentaires
Il me semble que l'intérêt statistique de Jacob Nielsen, trouve ici un peu ses limites.
Je ne nie pas une seule seconde la réalité de ses résultats, mais leur pertinence par rapport à ce que l'on sait déjà et dans leur modalité d'exploitation. Je pense effectivement que nous lisons bien peu de ce qui nous est donné à lire sur le web. Les temps passés moyens sur les sites nous le disent depuis longtemps. D'abord parce que nous passons beaucoup de temps à naviguer et ensuite, parce que la lecture en ligne est certainement en train de reculer par rapport à d'autres activités (écoute, visionnage d'images, de vidéos... qui se développent). Si vous surfez sur les sites où se concentrent l'audience (MySpace, FaceBook par exemple... page d'accueil de votre fournisseur d'accès), vous verrez qu'il y a peu à lire d'ailleurs, malgré le fatras de liens et de signes dans lesquels ces pages nous noient. Enfin, prendre la page en brute, dans le décompte brut des mots, sans y intégrer la mise en page, me semble aller à l'encontre même de la compréhension de sa conception. Le design même de la page nous incite à ne pas tout lire ! Il dresse des catégories, des espaces différenciés, qui heureusement nous sauvent ! Si les pages ressemblaient encore à de l'ASCII sur fond blanc, si rien n'étaient différenciés, nous serions certainement obligé de tout lire du début à la fin... ;-) Cela ferait peut-être plaisir à monsieur Nielsen, mais je ne vois pas à qui d'autre ?
Je pense qu'une telle étude devrait être atténuée par une classification des utilisateurs, des usages et des sites, or Jackob Nielsen fait exactement le contraire : il dresse une moyenne, comme si le contenu de tout site était égal à un autre. On sait depuis longtemps que la durée moyenne des gens sur un site est différente selon le type de sites sur lequel on passe, et cela on le sait déjà. On sait que cette durée moyenne ne correspond pas à la durée de lecture du moindre article qui s'y trouve ou à la durée d'écoute de la moindre vidéo. Alors faire une moyenne de cette information n'ajoute pas grand chose à notre information...
Enfin, il est heureux que nous ne lisions pas 100 % de ce qui est écrit sur une page web. Parce qu'elle est bardée d'attributs qui n'ont rien à voir avec la lecture, mais avec la navigation. Nous ne lisons pas à chaque page d'un livre, le numéro de page ou le titre du chapitre ! Pas plus que nous ne lisons dans un journal tout le paratexte qui sert à naviguer, à se repérer. Il n'y a que les voix synthétiques qui lisent les attributs des balises des tableaux en HTML ;-).
Enfin, au final je trouve ça plutôt intéressant que les gens aient avec les pages en ligne une consommation différente, peut-être plus "intelligente" (si je peux me permettre) que la lecture linéaire (pour autant qu'ils l'aient jamais eu). Mais je crois que nous ne sommes pas tout à fait d'accord sur cette question ;-).
Bon en tout cas, il y en a qui lisent jusqu'au bout des pages liées ! ;-)
Bonjour Hubert,
Comme je l'indiquais, on peut contester les conclusions de J. Nielsen. Mais pour moi le plus intéressant est de voir sa posture et son objectif. Il s'agit bien de configurer la forme des pages Web en suggérant de réduire la longueur des textes pour augmenter leur consultation et en général le trafic. L'outil utilisé est la statistique. Autrement dit, l'objectif est une sorte de normalisation soft du Web-média à partir de l'observation de l'attitude des internautes.
Vous avez donc raison dans votre critique, bien que je ne vous suivrai pas dans tous vos arguments et je crois que vous lui faites parfois un faux procès. Par exemple, il s'intéresse fortement à la mise en page et aux différents attributs, même si cela n'apparait pas avec évidence dans ce billet.
Je l'ai mis en parallèle avec les travaux du Fuji-Xerox Parc, car l'un et l'autre ont une forte influence pourtant leur raisonnement est radicalement différent. Les seconds considèrent le document en soi.
Pour le dire avec les mots de ce blogue : le premier cherche à bâtir un nouveau média, tandis que les second redocumentarisent.