Economie du document (Bloc-notes de Jean-Michel Salaün) - Le côté obscur des requêtes sur les moteurs - CommentairesRepérage de données sur l'économie des documents dans un environnement numérique2023-02-23T18:35:44-05:00Jean-Michel Salaünurn:md5:49c8d8ac8d9d26b52cf4ac01c56b3bc3DotclearLe côté obscur des requêtes sur les moteurs - JM Salaunurn:md5:9960dcc03a9f13b131fe79a1437b1a412011-02-22T05:01:52-05:002011-02-22T06:02:08-05:00JM Salaun<p>Bonjour Brigitte,</p>
<p>Oui, il y a au minimum une conjonction de phénomènes et peut-être un tournant. Mais je nuancerais ton propos.</p>
<p>Sans doute dans l'absolu la neutralité de point de vue n'existe pas, mais à un moment donné, pour une collectivité donnée, il existe un un socle de croyances communes basées sur des régimes de vérité variable (religion, science, autorité, statistique etc.). Et cela construit une sorte de neutralité de point de vue. C'est d'ailleurs elle que recherche Wikipédia par d'autres moyens que Google.</p>
<p>De la même façon, on pourrait dire que l'objectivité en science ou dans le journalisme n'existe pas dans l'absolu. Et pourtant, la science comme le journalisme se sont donnés au 19-20e des méthodes pour y tendre.</p>
<p>Pour revenir à Google, son régime de vérité est statistique, grâce à la possibilité inédite de lecture industrielle. Mais il est intéressant, en effet, de voir que comme pour la presse il doit louvoyer entre les pressions des annonceurs et la confiance des internautes et que ces tâtonnements perturbent sa logique. Mais son objectif reste bien de la préserver au prix de quelques bidouillages.</p>Le côté obscur des requêtes sur les moteurs - B.Simonnoturn:md5:18a66e986c631b95dee561b3385ef6db2011-02-21T17:43:26-05:002011-02-22T02:11:57-05:00B.Simonnot<p>2011 est décidément un cru prometteur : cela fait deux fois (au moins) depuis le début de l'année que, chez Google, on nous informe avoir manipulé "manuellement" l'index du moteur pour modifier ses résultats dits "naturels". D'abord pour "confondre" un concurrent (voir <a href="http://googleblog.blogspot.com/2011/02/microsofts-bing-uses-google-search.html" title="http://googleblog.blogspot.com/2011/02/microsofts-bing-uses-google-search.html" rel="ugc nofollow">http://googleblog.blogspot.com/2011...</a>), et cette fois-ci pour lutter contre un "fraudeur" du commerce des liens que la compagnie a elle même institué.</p>
<p>Google Inc s'autorise désormais à afficher ces manipulations, après avoir longtemps affirmé ne pas s'y livrer puis reconnaître qu'elle s'en réservait le droit (voir <a href="http://www.google.com/explanation.html" title="http://www.google.com/explanation.html" rel="ugc nofollow">http://www.google.com/explanation.h...</a> : "Although Google reserves the right to address such requests individually [...]"). A chaque fois, c'est pour défendre son fonds de commerce (celui des liens publicitaires) et surtout son capital de confiance auprès des internautes, capital très lié à sa position monopolistique. La compagnie commencerait-elle à être sur la défensive ? En tout cas, on commence à toucher du doigt de manière plus palpable les limites du mélange des genres. En matière d'information, la neutralité de point de vue n'existe pas et, quelque que soit la puissance des algorithmes, elle ne peut être a fortiori calculée. Que ce soit par Google ou par d'autres.</p>Le côté obscur des requêtes sur les moteurs - JM Salaunurn:md5:484f9b573aff4f9213589c00b4050de12011-02-21T12:14:14-05:002011-02-21T13:14:29-05:00JM Salaun<p>Merci Paulette pour ce nouveau signalement. Décidément, le sujet est chaud. Il est de plus en plus clair que Google commence à assumer sa responsabilité éditoriale. Un pas de plus vers un web-média.</p>
<p>Voir aussi Presse-Citron <a href="http://www.presse-citron.net/seo-les-dernieres-techniques-americaines-pour-faire-exploser-votre-trafic" title="http://www.presse-citron.net/seo-les-dernieres-techniques-americaines-pour-faire-exploser-votre-trafic" rel="ugc nofollow">http://www.presse-citron.net/seo-le...</a> Lire aussi les commentaires.</p>Le côté obscur des requêtes sur les moteurs - PBurn:md5:46b9c1f57c1d9e2c9cea06b8f10b1bc52011-02-21T10:38:47-05:002011-02-21T13:06:32-05:00PB<p>voir aussi cet article du Monde :<br />
- Damien Leloup. Google s'attaque aux "fermes de contenus" LE MONDE, 15.02.11<br />
<a href="http://www.lemonde.fr/technologies/article/2011/02/15/google-s-attaque-aux-fermes-de-contenus_1480586_651865.html" title="http://www.lemonde.fr/technologies/article/2011/02/15/google-s-attaque-aux-fermes-de-contenus_1480586_651865.html" rel="ugc nofollow">http://www.lemonde.fr/technologies/...</a></p>Le côté obscur des requêtes sur les moteurs - JM Salaunurn:md5:032811fb4e22fcee51f6cf7301fc91c12011-02-20T15:20:55-05:002011-02-20T16:21:11-05:00JM Salaun<p>@Sinklife et Alain</p>
<p>Je ne crois pas que cette histoire ne remette en cause ni la pertinence, ni la neutralité des algorithmes de Google. Sans intervention extérieure hostile, les algorithmes auraient sans doute fonctionné efficacement et de façon neutre.<br />
Simplement, elle montre qu'à partir du moment où d'importants enjeux sont en cause une firme en position de monopole devient vulnérable. On pourrait comparer l'histoire avec les virus pour Windows, par exemple.<br />
Mais ce qui est étonnant, et peut-être au fond rassurant, c'est la mise en difficulté de Google qui ne peut plus faire confiance à ses supercalculateurs, est alertée par une enquête journalistique traditionnelle et réagit manuellement.<br />
Dès lors, le problème posé n'est pas ou plus la «neutralité» au sens technique, mais bien la neutralité au sens déontologique. La même question de neutralité s'est posée à Wikipédia ou, il y a cent ans, aux journalistes (objectivité). Autrement dit, ce sont des questions éditoriales. Je pense que cela passe par un débat public, des outils d'analyse transparent et aussi un peu de régulation.</p>
<p>@ Marin<br />
Bien sûr la question n'est pas nouvelle, mais d'une part le NYT sait faire une vraie enquête, faisant remonter des faits, d'autre part, elle semble avoir changé d'échelle.<br />
Je ne suis pas sûr qu'une qualification par le crowdsourcing évite les manipulations.</p>
<p>@ Electropublication<br />
Merci pour ces infos. Pour les intéressés, le site du concours est ici : <a href="http://www.paidpr.com/concours-seo.php" title="http://www.paidpr.com/concours-seo.php" rel="ugc nofollow">http://www.paidpr.com/concours-seo....</a></p>
<p>On est ici dans une logique typiquement libertarienne. La référence aux cow-boys n'est pas innocente.. J'ai le sentiment que cette logique gagne de plus en plus le web.</p>Le côté obscur des requêtes sur les moteurs - Electropublicationurn:md5:c765ca2fab610cd3aeadbeb81a2a1a302011-02-19T20:28:52-05:002011-02-20T04:19:23-05:00Electropublication<p>aujourd'hui les Professionnels du Black hat SEO utilisent des outils qui peuvent créer des centaines de blogs en 1 heure (avec billets et links optimisés), spammer des milliers de commentaires de blogs, de forums ou de réseaux sociaux en quelques heures, de manière automatique. Leurs résultats - à court terme - sont impressionnants (imbattables on pourrait dire).</p>
<p>Depuis quelques semaines Google fait des annonces pour lutter durement contre les "fermes de contenus" et le duplicate content, mais ce n'est déjà plus tout à fait de cela dont il s'agit...</p>
<p>Pour avoir une idée des ressources impressionnantes utilisées par ces référenceurs (et qu'ils utilisent donc dans le commerce pour leurs clients, comme dans l'exemple cité, et il y en a aussi de plus en lus en France) > il faut jeter un coup d'oeil aux résultats du dernier concours SEO qui a eut lieu en France : il portait sur le terme "seotons".<br />
Toutes les techniques les + avancées (de spam et Black SEO) ont été utilisées par les vainqueurs durant 3 mois. Il suffit d'étudier les backlinks des gagnants pour se rendre compte de leurs méthodologie.<br />
A ce niveau, Page rank, "autorité" ne veulent presque plus rien dire...</p>
<p>Et je crois que cela ne fait que commencer...</p>Le côté obscur des requêtes sur les moteurs - Marin Dacosurn:md5:47abf4e51ac04e2c18ef347b75d3b5cc2011-02-19T12:31:43-05:002011-02-19T13:52:23-05:00Marin Dacos<p>Le New York Times découvre quelque chose qui n'est vraiment pas nouveau.</p>
<p>Cela dit, il n'est pas inutile de remettre cette question dans le débat public. Ce qui me paraît surprenant, c'est l'absence d'initiative majeure de qualification des sites web par autre chose que par le PageRank. Au hasard : par des gens. Une stratégie s'appuyant sur le crowdsourcing me paraîtrait intéressante, surtout si elle n'était pas portée par les moteurs de recherche, mais par d'autres acteurs, de type Wikipedia ou bibliothèques ou autres.</p>
<p>L'initiative la plus réussie, en ce sens, me paraît aujourd'hui être WOT. <a href="http://www.mywot.com/" title="http://www.mywot.com/" rel="ugc nofollow">http://www.mywot.com/</a> Je crois que la communauté scientifique pourrait organiser un telle collecte, en y intégrant ses valeurs et ses exigences de qualité.</p>Le côté obscur des requêtes sur les moteurs - Alain Pierroturn:md5:e0a7dc6ef43b5dd87182f3c2e3eed2262011-02-19T06:35:08-05:002011-02-19T13:03:28-05:00Alain Pierrot<p>"And the company did. On Wednesday evening, Google began what it calls a “manual action” against Penney, essentially demotions specifically aimed at the company."</p>
<p>La simple possibilité de cette "action manuelle" fait voler en éclat une bonne partie du discours de Google sur la neutralité de ses algorithmes, non ?</p>Le côté obscur des requêtes sur les moteurs - sinklifeurn:md5:c8bfb778af12ad7c6329fe20e1455a7a2011-02-19T06:03:05-05:002011-02-19T13:03:28-05:00sinklife<p>google et ses résultats par pertinance, on est en loin...</p>