Sélectionner une page

Peut-on se fier aux contenus que Google nous présente ?

Chacun sait que Google domine le marché de la recherche sur internet et le métier de rédacteur web. Son hégémonie est malgré tout menacée par Bing et Yahoo qui gagnent doucement des parts de marchés. Google doit donc continuer à améliorer la qualité de ses services et la pertinence des sources qu’il présente.

L’information qui doit faire autorité

Pour retenir ses usagers, Google doit leur proposer des sources documentaires pertinentes et crédibles.

Pour y arriver, il doit mettre en avant les informations exprimant des informations « certifiés » et « vérifiées ». Cependant, rien ne garantit aujourd’hui que les sources auxquelles il nous donne accès relatent la justesse historique.

Cela n’a pas empêché le moteur de recherche de devenir le leader sur lequel tout le monde se rend pour se documenter, ce qui pose la question de la confiance que l’on peut réellement lui accorder.

Comment savoir qu’un site qu’il nous suggère dans les serp est le contenu en ligne le plus pertinent ?

Nul ne le sait, alors chacun s’en remet aux critères de classification de Google et lui fait confiance sans remettre en question sa capacité de jugement.

Pour conserver la confiance de ses utilisateurs et bien écrire pour le web, il a dû introduire un indice de valeur supplémentaire à ses algorithmes : l’Author Rank

L’Author rank est-il le garant de la pertinence ?

D’un certain point de vue, nous pouvons dire que oui, car cet indicateur détermine la crédibilité d’un auteur en se basant sur sa popularité, sur les retours des utilisateurs et sur son pouvoir d’influence sur la toile.

Les contenus proposés par un auteur disposant d’un bon Author rank sont donc pertinents aux yeux des lecteurs et donc de Google.

Les algorithmes de l’information

Panda et Pingouin témoignent de la volonté de Google d’améliorer la qualité des contenus qu’il présente.

L’un s’assure de l’originalité des textes et du bon respect des règles d’écritures (faute d’orthographe, grammaires, etc.), tandis que l’autre vérifie que les sites ne sont pas positionnés grâce à une popularité fictive (liens entrants en masses qui n’ont aucun rapport avec la ligne éditoriale du site)

L’Author Rank quant à lui, apporte une touche de crédibilité sans pour autant être un indicateur infaillible.

Ces algorithmes et indicateurs de notoriété représentent le début d’une longue marche vers l’excellence des médias web, mais ils ne garantissent que la qualité rédactionnelle, éditoriale, la crédibilité des auteurs et la popularité des contenus en ligne.

C’est suffisant pour déterminer un certain niveau d’expertise et suggérer la confiance, mais personne ne peut encore avoir l’entière certitude qu’une source consultée sur le web exprime bien une vérité.

Quand pourra-t-on se fier entièrement au web ?

Aujourd’hui, le croisement des sources reste obligatoire pour éviter la désinformation.

Si la vérification des contenus par des experts demeure impossible, une consultation en bibliothèque semble être le seul moyen pour les internautes de s’assurer qu’une information est juste et fiable.

Pour qu’ils puissent pleinement se fier au web, il faudrait donc que Google soit capable de croiser et comparer les contenus des auteurs web avec les écrits des bibliothèques. Sachant que le moteur a reçu l’autorisation de numériser le patrimoine des bibliothèques de nombreux pays, on peut imaginer qu’il sera bientôt capable de le faire. Seul l’avenir nous le dira.

Conclusion

On ne peut donc pas encore faire entièrement confiance aux sources que l’on trouve sur le web. Le croisement des sources reste indispensable pour obtenir une information fiable.