La pénalité aléatoire, mythe ou réalité ?
Depuis le début de l’année, les référenceurs risquent de plus ou plus souvent la crise cardiaque. En six mois, en plus de “Dewey”, la grosse modification d’algorithme de filtres de Google intervenue en mars, on voit à peu près toutes les trois semaines des plaintes sur les forums SEO, sur un bouleversement des SERP, avec la remontée de sites “non-pertinents” en première place, et le déclassement de sites anciens, pertinents, sans raison identifiée. (Sites propres, avec des liens, pas de black-hat…)
Est donc sortie la théorie de la pénalité aléatoire.
La pénalité aléatoire, c’est un peu comme la fatalité, le doigt de Dieu, la misère qui s’abat sans raison sur le pauvre Job sur son fumier, le vendredi 13.
Et c’est aussi finalement une façon pratique d’excuser son incompréhension, et notre incapacité à comprendre quelles sont les nouvelles composantes de l’algorithme.
C’est clair, je ne crois pas à la pénalité aléatoire.
Alors que la promesse de Google, la raison de son succès par rapport aux autres moteurs de recherche, et le terrain de bataille avec Microsoft, c’est la pertinence des résultats. ..
quelle raison aurait Google de saborder cette pertinence avec une fonction aléatoire ?
Engranger plus d’argent grâce à AdWords a-t-on dit, les sites déclassés n’auraient plus d’autre solution pour conserver leur trafic que d’investir dans des campagnes de pub.
Suicidaire à très court terme, la force d’AdWords étant la pertinence de son ciblage, et l’hégémonie de Google sur les recherches Web.
Si la pertinence des résultats baisse, il y aura moins d’internautes utilisant Google, et donc moins de clients pour AdWords.
Il n’y a rien de plus brutal qu’un random.
Et on peut croire que Google, avec toute la puissance de sa matière grise, n’aurait rien trouvé d’autre pour améliorer son algorithme qu’un simple tirage au sort ?
Et si Google avait, en réalité, écouté les webmasters ?
Parce que “l’ancien” algorithme n’était pas si apprécié que cela.
En vrac, on lui reprochait de privilégier les sites anciens, les sites pros et optimisés, les sites avec beaucoup de back-links, et de pousser à faire des sites pour Google et pas pour l’utilisateur.
Le grand ménage a commencé, pénalisation des MFA, des fermes de liens, du duplicate content.
Et si le grand ménage continuait ? Et que simplement Google fasse attention à tous les webmasters, y compris les amateurs qui font simplement un site pour le plaisir, pour une passion, et n’ont aucune idée de leur positionnement ?
Je suis persuadée, je l’ai déjà dit, que peu à peu, tous les critères d’optimisation qui ne sont pas directement liés au contenu, qui peuvent être facilement manipulés par un webmaster sans impact réel sur l’expérience utilisateur, perdront de l’importance, comme les balises keywords ont été abandonnées.
Au nombre desquels, les mots dans l’url et dans le nom de domaine, par exemple, et une optimisation un peu trop manifeste dans les mots clés présents sur la page.
Au lieu d’une pénalité aléatoire, une promotion aléatoire
Sur certaines requêtes que je suis sur une profondeur inhabituelle, sur plus de 200 résultats, je vois depuis longtemps un phénomène de renouvellement régulier des pages classées assez profondément, disons à partir de la centième position. Alors que les premières places restent stables, en bas ça bouge énormément, promotion, dépromotion, disparition, apparition de nouvelles pages.
Et de temps en temps, disons une fois ou deux par mois, une arrivée massive de nouveaux liens, des pages, parfois anciennes, qui surgissent des profondeurs… pour y retourner peu de temps après.
Comme un orpailleur qui drague le fond, pour essayer de trouver des pépites.
La différence entre la “pénalisation” et la “promotion” est profonde : au lieu de faire plonger volontairement des sites pertinents, on essaye de voir si d’autres pages ne seraient pas tout aussi pertinentes.
On peut imaginer que cela prend de l’ampleur. Google donnerait du gaz sur certains filtres, pour tester.
En tant qu’utilisateur je suis plutôt satisfaite de cela
Eh oui… mes attentes en tant que webmaster sont différentes de celle de l’utilisateur.
Ici, par exemple, j’essaie de tout faire pour vous attirer sur certaines combinaisons de mots clés, de moi seule connues, pour ensuite vous vendre quelque chose… une prestation de service si vous êtes un client, ou, sans vous le “vendre”, vous pousser à me citer, et à améliorer mon référencement naturel (toujours pour trouver plus de clients), en bref, à vous persuader que mon site est le meilleur.
En tant qu’utilisateur, je cherche à trouver le site qui est réellement le meilleur pour ma préoccupation, laquelle n’est pas toujours formulée comme le webmaster l’a imaginée.
Un exemple concret : je fais des recherches généalogiques, et la partie russe et lituanienne se fait essentiellement par internet (essentiellement, c’est 99%). J’ai l’habitude de googler régulièrement certaines combinaisons de noms et de mots… et depuis quelques semaines, je trouve beaucoup plus de résultats pertinents pour moi (et totalement déconnectés de l’objectif premier de la page).
Pas de pénalité aléatoire, une modification des filtres et algorithmes
Google intègre de plus en plus de contenu, par le biais de google.books, par le biais de la recherche universelle aussi, bientôt le flash… la façon de trouver du contenu pertinent dans un livre, par exemple, est totalement différente d’une recherche Web classique. Il peut y avoir simplement cinq lignes, dans une note de bas de page, qui sont extrêmement intéressantes, mais totalement déconnectées du sujet principal du livre.
Les flashs n’ont pas été optimisés, puisque tout le monde savait que cela ne servait à rien.
Je pense que Google est simplement en train d’affiner son algorithme, et de chercher à introduire dans ses résultats, avec pertinence, des contenus par nature non-optimisés. Cela ne peut pas se faire en un jour, ni sans tests, et c’est ce que nous subissons en ce moment.
Ce n’est pas, comme certains ont pu le dire, la mort du référencement, mais une évolution des techniques.
Bonsoir,
Je tenais juste à dire que ta théorie était intéressante. J’ai le même avis à propos des pénalités aléatoires, une chose improbable en dehors de tests irréguliers.
Sur ce, bonne soirée et bon week end.
Ooxia.
Un site ancien avec du lien en quantité derrière lui ne risque encore rien de nos jours.
Par contre, je suis totalement d’accord sur le fait que la pénalité aléatoire est utilisé pour expliquer notre ignorance, tout comme on utilise actuellement le duplicate pour expliquer toutes les sanctions actuelles.
ps: un MFA n’est pas forcément mauvais et sanctionné.
Bonsoir,
Mlaheuresement Gwaradenn de très gros sites ont chuté depuis 3 mois, certains étaient installés depuis plus de 9 ans dans les SERP …
C’est pas peu dire …
Ooxia.
Ooxia, et ils ne sont pas remontés ?
Quels sont ces gros sites qui ont chuté ? merci.
C’est un peu ça le problème… pas de vue consolidée sur les problèmes – sûrement réels – de quelques uns, donc une vue partielle qui permet de facilement grossir le problème.
C’est donc bientôt un retour des sites avec des titres avec Bienvenue ou Accueil en haut des classements de Google…J’y crois peu…
Peut être partiellement.
Mais les référenceurs sauront s’adapter je leur fait confiance :)
C’est les limites de l’algorithme de Google tout simplement. Ce n’est peut-être pas la peine de chercher ce que Google veut faire mais plutôt ce qu’il ne peut pas faire.
Ce qu’il ne peut pas faire, c’est à la fois référencer très rapidement les blogs et sites de news et à la fois faire la différence entre du réel contenu et des “blogs Adsense” qui sont à l’affut des mots clés pour générer du trafic.
Sur des mots clés “a la mode” je pense qu’il est préférable d’utiliser plutôt Yahoo ou Exalead si vous tenez à avoir des résultats corrects.
Pour le référencement rapide, cela fait longtemps que ces pages restent difficilement bien classées, et ont une prime de fraicheur extrêmement courte, parfois de l’ordre de l”heure.
Quant à ce qu’on utilise… ce n’est pas nous qui choisissons comment on vient chez nous, non ?
Un article récent sur ce terme de “pénalité aléatoire” : http://s.billard.free.fr/referencement/?2008/07/18/494-seo-parano-pipo
Et puis si nous webmasters on apprenaient un peu aux gens que Google n’est pas forcément le meilleur choix, alors on en serait moins dépendants. ;)
Ce n’est peut-être pas le meilleur choix, mais il demeure incontournable. On ne peut faire sans.
Tout à fait d’accord avec Mathias. Mais pas du tout avec Al-KAnz :D
Il n’est pas du tout incontournable ni indispensable. Ca fait maintenant 6-7 mois que j’utilise Yahoo au lieu d’utiliser Google comme moteur de recherche alors que j’ai utilisé Google depuis ses débuts.
Et des recherches, j’en fait encore plus d’une dizaine par jours.
Donc on peut très bien s’en passer.
On peut s’en passer si on a un site confidentiel et que le trafic est le cadet de ses soucis. Autrement, j’ai du mal à comprendre comment on peut se passer d’un moteur qui occupe 90 % du volume de recherche.
On ne parle pas forcément de la même chose.
En tant que webmaster, il est difficile de se priver de 90% du trafic des moteurs, et donc de 80 % ou 70 % du trafic global (toute sources confondues). Pourtant, je pense que cela n’est pas bien grave pour un site perso ou de faible ambition/envergure.
C’est pourtant un des points de ma stratégie de référencement de mon blogue : absence de l’index google. Et encore, il indexe l’url, sans le contenu. Le fait que l’url seule apparaisse sur uen SERP permet je pense de créer une curiosité et ainsi déclencher un clic. Mais là n’est pas le but . Idéalement, mon blogue serait pas dut tout dans Google. Inversement, je fais des liens vers des résultats de recherche de Yahoo pour rappeler qu’il existe lui aussi.
Pour être tout de même un peu présent je compte sur les agrégateurs qui reprennent le contenu autmatiquement (wikio, paperblog + ziki mais un ziki c’est très personnel). si cela ne suffit pas, il a scoopeo, tomateo et autres digg-likes.
Si on parle en tant qu’internaute, on pourrait tout à fait aller voir ailleurs, genre yahoo, car google a le gros défaut d’être très pollué en raisons de sa popularité et vulnérabilité au SEO black hat. Mais ça le grand-public l’ignore, et ne cherche pas à le savoir : Google suffit, marche, vite et même très bien. Pourquoi aller ailleurs quand on est satisfait ?
Et ça, c’est à cause de nous, gens du Web (blogueurs passionnés, consultants IT, développeur…) qui ne parlons que de Google, ignorons délibérément la concurrence (oui elle existe vraiment, la preuve c’est qu’au USA Yahoo a au moins 25 % de PDM), nous voilons la face en refusant de s'”indépendantiser” de Google et continuons d’utiliser des produits et services.
Patricia Gallot-Lavallée prévoit d’organiser à la rentrée une journée sans Google, j’en ferais de même.
C’est le serpent qui se mort la queue ^^
bin c’est bien simple, il suffit d’encourager les personnes à utiliser un autre moteur de recherche pour éviter qu’un moteur ne gère 90% des recherches à lui tout seul.
Après si pour toi, ta seule préoccupation est le trafic, dans ces cas là, il vaut mieux je pense que tu les encourages à utiliser Google.
D’ailleurs, je me demande si Google ne gonfle pas un peux les résultats dans les stats des webmasters. Parce que moi je trouve que j’ai une proportion annormalement élevés de gens qui viennent alors que mon site est classé à la 7ème ou 8ème page par rapport à la recherche.
De plus en effectuant certaines recherches, il m’arrive qu’un site qui apparait dans les résultats face une demande de cookies à mon navigateur sans que j’ai cliqué dessus.
…quelqu’un pourrait expliquer ce comportement ?
Ne pas pouvoir faire sans, ce n’est pas faire qu’avec. Personnellement, j’ai un trafic très qualifié fidélisé via d’autres vecteurs que Google. Et je travaille à augmenter ce trafic. En même temps, c’est surtout Google qui m’apporte ce lectorat qualifié via un positionnement sur des mots-clé très précis. Tant que mon site n’aura pas atteint ce seuil critique qui fait que Google n’est qu’un pourvoyeur d’internautes comme un autre, eh bien je ne pourrais absolument pas faire sans.
Cela dit, vu les ajustements de ces derniers temps et autres désagréments, il est évident qu’il faut trouver d’autres sources de trafic.
Moi personnellement j’ai ouvert Hpblog depuis à le 25/02/2008.
J’ai fait du référencement grossièrement sur plusieurs moteurs de recherches et annuaires, malgrés que ce soit déconseillé par rapport au calculs de google.
Ajourd’hui au total, j’ai eu 19 069 visites.
37% proviennent de sites “partenaires” dans le sens ou il traite le même sujet que moi (c’est une vrai communauté sans pub pour partager des connaissances).
32% sont des accès direct.(sans plus de détail. JE ne sais pas si c’est dans les favoris de leur navigateurs ou s’il viennent par un lecteur de news ou une page personnalisé à la Netvibe)
et 30% proviennent de moteur de recherche dont 92.84% de Google. (Mais comme je l’ai dit avant j’ai des doutes sur le chiffre).
Par contre 80% des visiteurs passant par Google ne restent pas plus de 30 secondes sur mon site. Donc soit c’est que Google a très mal référencé mon site, soit ce ne sont pas de véritables visites mais toujours est-il que ça peut être très intéressant pour des stats mais pas du tout pour faire vivre un blog.
Voilà mon expérience.
Sinon je crois que je vais me renseigner sur la journée sans Google histoire d’informer les visiteurs du blog.
Si les gens restent aussi peu longtemps, c’est sans doute qu’il y a un problème pour les accrocher.
Soit la présentation, qui fait beaucoup… guider l’oeil visuellement, structurer le texte pour accrocher sur l’essentiel.
Ou alors effectivement un problème de référencement, avec des requêtes qui amènent des gens qui sont intéressés par autre chose que ce dont ton blog parle.
Il faut creuser un peu plus finement, à partir des mots clés, je pense.
Le problème c’est que j’ai fait un billet dans lequel je parlais du premier épisode d’une série qu’on pouvais voir en streaming avec dans le titre “série en streaming”. Et maintenant Google m’a référencé dans les premiers résultats de “série en streaming” alors que le thème de hpblog est beuacoup plus général.
C’est pour ça que je dis que Google fait un peu n’importe quoi en référencement, parce que je suis sûr qu’il y a des centaines de sites qui parlent mieux des série en streaming que Hpblog et qui existent depuis plus longtemps.
Et e problème c’est que Google favorise trop le référencement et les blogs. Mais je pense que c’est juste une technique commerciale comme une autre. Les blogs étant un nouveau marché qu’il faut brosser dans le sens du poil d’une part pour pouvoir revendre des espaces adsense, d’autre part pour s’assurer de la com des nouveaux services Google dont on entend toujours parler sur les blogs, même pour la modification d’un favicon.
Je m’étale et fini hors sujet sauf que voilà je pense que, tant que Google aura besoin des blogs pour sa com’, et que les blogs lui rendent comme c’est le cas actuellement, il risque de ne pas y avoir trop de changement. Le jour ou Google aura trouver un autre moyen et pourra se passer des blogs, je pense que logiquement l’algorithme devrais positionner, pour des mêmes mots clés, des sites plus vieux et plus fourni sur ce mots clés.
Voilà mon point de vue.
Je ne pense pas que Google favorise les blogs en tant que tels.
Simplement un blog “out of the box” est 10.000 fois plus optimisé que ce que monsieur tout le monde peut faire lui même.
Des outils très simples, comme le ping, etc… favorisent aussi une indexation très rapide.
Un blog, en soi, ce n’est pas une nature de site à part, c’est un site avec :
– pas mal de liens internes
– un contenu régulièrement mis à jour
– une information sur ce contenu
Par ailleurs, je crois que la “blogosphere geek” celle qui s’émerveille sur les changements d’icônes de Google n’est qu’une petite part du monde des blogs, une toute petite part, mais qui se regarde un peu beaucoup le nombril.
Skyblog, blogger, par exemple, hautefort, le Monde, sont des endroits où il y a relativement peu de techos, et beaucoup de blogs.
Maintenant, si tu mets en place les mêmes techniques que celles d’un blog pour un site “autre”, comme ce que je fais pour notre agence de voyage au Maroc qui intègre un blog, mais pas seulement, tu auras les mêmes résultats d’indexation.
Après je viens de chercher pour “série en streaming” et je ne te vois pas dans les 4 premières pages de résultat, sur le .fr
Il semblerait qu’il ait compris son erreur ?
Je suis tout à fait d’accord avec toi que Google ne favorise peut être pas directement les blogs. Mais son algorithme leur donne quand même un peu trop d’avantages par rapport aux sites historiques et reconnu comme pourrait l’être Le Monde ou autre.
Et surement que les techniques d’indexation sont très bien developpé sur les blogs.
Mais peut-être justement que Google aurait intérêt à leur donner moins d’importance. Ce serait ennuyeux pour les entreprises de conseil et de formation à ce niveau là mais au niveau de la recherche sur Google, ce serait surement un plus.
Et pour “series en streaming”, en faite je sais pas si ça provient de Google.fr ou Google.com. J’ai l’impression que PhpMyVisite ne sait pas faire la différence.
Mais hier encore sur les termes “series en streaming “, “serie en streaming”, “séries en streaming”, “streaming serie ” , “séries streaming “, j’ai eu 19 visites depuis Google. Soit 22% des visites par moteur de recherche.
Sinon pour en revenir à ce que tu disais, c’est vrai que visuellement, Hpblog n’est pas très beau et n’attire pas beaucoup les visiteurs. Mais c’est du temps et je préfère me consacrer au contenu qu’au contenant pour l’instant.
En tout cas merci pour ces échanges ;)
Sur l’exemple que tu donnes, je pense plutôt que le problème est dans le référencement et l’optimisation de ton blog.
Que tu aies plus de visiteurs sur une requête ne veut pas dire que tu es très bien placé dessus, mais que tu es plus mal placé sur d’autres.
Or en regardant très rapidement, ne serait ce que ta structure de titres est mauvaise, “classique” sur un blog WordPress, mais pas bonne.
En gros, tu fais tout pour te placer sur HPBlog, mais ce n’est certainement pas le mot qu’un internaute qui ne te connait pas saisira dans sa recherche.
Comme pour tous les blogs WordPress, il faut travailler sur le thème, modifier le header, éventuellement aller plus loin que AIO SEO (si tu l’utilises), et penser référencement dans chaque article, lors de la rédaction.
C’est pour ça qu’on en revient à ce que je disais : un site “non blog” sur le même sujet que le tien, correctement optimisé, se placera beaucoup mieux que toi. Aujourd’hui, un “blog” est une solution technique, à la limite au même titre que le choix en php ou asp.
Un bâtiment pré-aménagé, en quelque sorte, avec l’électricité, l’eau courante et l’inscription dans le bottin, mais pour en faire un restaurant couru, il faut faire tout le reste. Et si quelqu’un décide de construire lui même son restaurant, à la fin, ce sera toujours la cuisine et le service qui compteront.
Ah ouais tu as raison. J’avais pas vu que j’étais aussi mal placé sur “Homeplayer”. Alors que le blog traite principalement de ce logiciel. J’ai suivi tes conseil et j’ai modifié le titre du blog et le slogan.
J’ai aussi rajouté le plugin SimpleTagging pour WordPress pour mettre des tags pour chaque article.
Je verrai ce que ça donne.
Mais merci pour tes conseils ;)
Tout à fait d’accord avec votre concept de pénalité aléatoire parfaitement vérifiable dans le bas de la première page d’une journée à l’autre.
A moins que ce ne soit lié à des problèmes d’actualisation des mirroirs ?