À première vue, il y aurait un paradoxe entre l'explosion du Web 2.0 qui repose notamment sur la grande "générosité" des internautes, partageant leurs données, informations, impressions sans beaucoup de réticences et les limites actuelles du libre accès dans la science, pourtant antérieur au Web 2.0, qui peine à convaincre les auteurs d'articles à les déposer dans des "archives ouvertes".

Le paradoxe est d'autant plus grand qu'à l'échelle globale "macro", la science a tout à gagner à une ouverture de ses publications déjà par nature structurées et hiérarchisées, tandis que pour le Web 2.0, le bruit généré conduit à un chaos pas toujours vraiment productif.

Plusieurs explications sont avancées pour l'inertie des chercheurs : le manque d'information, les pressions des éditeurs, la résistance au changement, le conservatisme.. On pourrait aussi arguer que 15% de déposants c'est déjà un chiffre sans doute supérieur à la proportion d'internautes actifs dans le Web 2.0. Sans doute chacune a sa part, mais elles ne me convainquent pas. Les chercheurs forment une petite communauté, facile à toucher, autonome, très réactive et, parmi eux certains ont massivement investi le libre accès, mieux ils ont tout simplement inventé de Web à cette fin !

La véritable explication me parait ailleurs. Elle réside dans la différence du raisonnement économique, selon que l'on raisonne à l'échelle macro ou micro. En effet, à l'échelle micro, le raisonnement change de nature.

Pour le Web 2.0, un intéressant billet de Technologie Review est éclairant :

Samaritans with keyboards: On the Internet, helping strangers is a form of fun, Associated Press 10 janv 2007 (repéré par InternetActu)

Il reprend quelques réflexions et analyses de chercheurs s'étant interrogé sur les motivations individuelles du don sur le Web. La conclusion la plus édifiante est micro-économique. Extraits :

"It's not that human nature has changed, it's that the cost of participation has been dramatically lowered," Rheingold said. "If you're an expert on the prairie dogs of Nebraska, it's now very inexpensive for you to contribute your little piece of expertise." (..)

Patricia Wallace, author of The Psychology of the Internet, believes the anonymity of the online environment makes people more likely to take the risk of helping. She contrasts this to this to the act of helping out a real-life motorist who's asking for directions: "If you gave that person the wrong directions, he knows what you look like, who you are. He might drive back and say what kind of jerk you are."

On pourrait y ajouter le "don fortuit", celui que l'on fait en effaçant la frontière entre l'espace privé et l'espace public.

Maintenant comparons ces motivations avec la situation des chercheurs. Pour la première, en aucun cas le coût de participation du chercheur à la publication a changé : celui-ci repose sur la révision par les pairs dont l'obligation n'est pas différente dans le numérique que dans la publication traditionnelle. Par ailleurs, l'anonymat est exclu, sauf cas très particuliers, car il interdit la confrontation et la vérification des points de vue. De plus la publication étant liée à la carrière du chercheur, il ne tirerait plus de bénéfice de ses publications. Quant au don fortuit, il a peu de chances de fonctionner, les chercheurs voulant garder l'exclusivité de leurs travaux avant qu'ils ne soient arrêtés et bons pour la publication. Ainsi les raisons évoquées pour le Web 2.0 ne fonctionnent pas dans le libre accès.

Mais il y a pire, comme je l'ai montré dans un récent chapitre de livre.

Salaün, Jean-Michel. 2006. Économie du document - Pour des archithécaires. In Pérenniser le document numérique, 32-50. ADBS-Édition.

Extraits :

''Pour bien comprendre ce phénomène, il faut faire la différence entre l’édition (la sélection et la mise en forme d’un texte pour une revue) et la publication (la diffusion de ce texte édité). Dans l’économie ordinaire de la science, les chercheurs ont plus intérêt à être édités, c’est-à-dire à ce que leurs articles figurent dans des revues, qu’à être publiés, c’est-à-dire potentiellement lus au-delà d’un tout petit cercle d’initiés. L’objectif de l’édition est d’allonger leur bibliographie (liste de leurs travaux reconnus par leurs pairs) qui, ellemême, est l’élément central du dossier qui les suivra le long de leur carrière.

Ce point est d’autant plus crucial que les jeunes chercheurs sont le plus soumis à la loi, bien mal nommée, du publish or perish, tandis que ceux dont la carrière est faite pourront préférer une audience large, c’est-à-dire le libre accès, indépendamment d’une édition dans une revue. Sans doute peut-on objecter que le chercheur voudra être édité dans la revue la plus prestigieuse, celle qui a le plus haut « facteur d’impact » et qui est donc la plus lue. Mais cela ne change en rien son attitude initiale, guidée uniquement par le souci d’une révision de son texte par ses pairs en vue d’une acceptation qu’il pourra consigner dans sa bibliographie et absolument pas par la mise en libre accès de ce texte.

Toute la science est régulée par ce dispositif de révision par les pairs, mais on mesure souvent mal, en Europe, à quel point il fonde l’organisation de ses structures en Amérique du Nord. L’étalon du facteur d’impact, inventé par Eugene Garfield, permet de hiérarchiser les revues et, par voie de conséquence, les chercheurs dont les itinéraires sont, de ce côté-là de l’Atlantique, très individualisés et les universités en forte concurrence. Les financements des personnes, des travaux et des institutions dépendent largement de ce classement.''

Ainsi, vérité ou erreur d'un côté ou de l'autre de la frontière qui sépare grand public et science.. et vérité ou erreur selon l'échelle (macro ou micro) du raisonnement.