Description
Introduction
Google n’est pas le premier moteur de recherche à avoir existé. Altavista, Lycos, Yahoo, Ask furent présents avant le Géant. Mais comment cet engin de recherche a-t-il pu si rapidement déclasser tous les autres, revaloriser internet, son accessibilité générale, et devenir la porte d’accès principale et incontournable pour toute recherche d’information ?
Fondamentalement, les moteurs de recherche se contentaient de compiler de grandes listes de documents indexés et de les noter. Ils qualifiaient ainsi non pas la qualité réelle de ces documents mais plutôt celle probable à travers deux indicateurs principaux : la cohérence, premièrement, et l’originalité ensuite, sur une base sémantique bien entendu.
La plus grande force de Google
La plus grande force de Google fut l’algorithme du PageRank (alias Citation Flow chez Majestic), qui donne en quelque sorte à chaque page du web autant de possibilités de voter pour une autre page qu’elle ne fait de liens. Cependant, l’idée la plus brillante du PageRank est peut-être aussi celle qui impose que chaque vote dilue la puissance initiale des autres votes (liens) de la page.
Avec cet algorithme, il est possible de mesurer au fil de l’indexation la puissance en termes d’autorité (plus précisément de popularité) de chaque page du web. Cet indice permet de fournir, à coup quasi-sûr, à chaque internaute, les documents les plus appréciés sur le sujet. Avec cet algorithme, Google déclasse tous les autres moteurs de recherche et instaure très rapidement un monopole presque complet sur une toile grandissante.
La plus grande faiblesse de Google
Seulement, il existe une limite à cette formule : ces fameux liens et les points statistiques qu’ils canalisent constituent aussi la plus grande faiblesse du moteur de recherche californien. Cela, dans la mesure où ils s’avèrent être manipulables par n’importe quel webmaster désireux de propulser ses sites internet dans les classements.
Ces pages, qui comportent chacune une fraction de puissance d’amorce, peuvent être créées par une personne qui profitera clairement de cette formule, avec une connaissance de ses limites et de ses spécificités. Tout comme les pages, les liens artificiels peuvent aussi être directement créés de façon plus ou moins optimisée pour booster cette statistique décisive en termes de visibilité. Il était très difficile, dans ses débuts, pour Google de détecter ces manipulations de pages et de liens.
Deux techniques sont apparues dans un premier temps à partir de cette faille : le Spam-Dexing et le Netlinking (dans plusieurs nuances stratégiques allant du Link Baiting jusqu’au Ninjalinking). Ces deux techniques, le Spam-Dexing et les aspects artificiels du Netlinking, sont réprouvés par Google.
Pour essayer de contrôler les webmasters, la Web Spam Team de Google est même allée jusqu’à sélectionner manuellement des sites vendeurs de liens afin de les pénaliser et d’en faire des cas publics d’exécutions numériques. Ces exemples sèment ainsi une sorte de terreur sur la toile.
https://support.google.com/webmasters/answer/9044175?hl=en
https://ahrefs.com/blog/google-penalties/
Enfin, Google a proposé alors aux webmasters de gagner des liens naturellement (Link Baiting) par la qualité de leurs contenus publiés. Cela, tout en menaçant assez régulièrement les acteurs du web avec de lourdes pénalités en cas de manipulations ou de détection de liens artificiels.
Stratégie
Nous analyserons plus en détail les rouages de Google au sujet des liens, puis ses différentes ripostes (toutes contournables et limitées), et enfin, nous aborderons les règles d’or qu’il faudra systématiquement respecter dans tous vos travaux de manipulation du moteur de recherche sur la popularité.
Une guerre psychologique et algorithmique
Dans ce contexte, deux parties se sont formalisées et s’affrontent technologiquement :
- Pour pallier la curiosité des webmasters, Google s’est montré menaçant et bluffeur.
- Pour tenter de pallier les manipulations statistiques, Google a repoussé le problème avec le Nofollow, le Topical PageRank, les Quality Raters ou encore le Trust Rank, par exemple, sans jamais vraiment réussir à régler son vrai problème : ses résultats ne reflètent pas une qualité indiscutable mais plutôt des probabilités manipulables de cette qualité, bien trop aveugles à la véracité ou au sens réel des mots pour ne pas être influençables.
Les indicateurs métriques principaux
La stratégie, pour ma part, tire sa naissance dans l’analyse pragmatique de l’adversaire. Pour vous faciliter l’assimilation des forces et faiblesses de nos moteurs de recherche et leurs exploitations possibles, voyons deux formules de base de façon synthétique. Après le score sémantique d’une page (indice de cohérence et indice d’originalité), Google calcule deux autres aspects fondamentaux : l’indice de popularité et l’indice de confiance. C’est la popularité et la confiance ainsi que leurs méthodes d’acquisition qui nous intéressent dans cet ouvrage.
Vous trouverez dans les ressources annexes de ce document des plans de backlinks, des configurations et listes de plugins WordPress, ou encore des outils d’élaboration et d’optimisation onsite. De nombreuses adresses web utiles sont disséminées de manière pertinente dans les différentes parties du ebook, avec souvent des alternatives gratuites et des solutions payantes plus performantes proposées.
Avis
Il n’y a pas encore d’avis.