Pingouin, J+7
A la veille d’un week-end de premier Mai, en pleine période de vacances scolaires, Pingouin a été particulièrement difficile à analyser, car 90% de mes sites ont une chute de trafic sensible à la même période, chaque année. Les gens étant en vacances, ils ne cherchent pas comment les préparer…
Cela dit, Matt Cutts ayant affirmé que Pingouin a été totalement déployé le 26 avril, j’en conclus que cette chute annuelle n’y est pas liée, et que, “touchons du bois”, les sites que je gère n’ont pas été impactés.
De nombreuses hypothèses circulent, sans arriver à réellement tirer des conclusions définitives et applicables, cet article trouvé sur Twitter via @Infiniclick met bien en évidence le brouillard dans lequel se trouvent les SEO aujourd’hui.
Ça tiendrait globalement au linking. A la qualité des liens…aux communiqués de presse, à la sur-optimisation, à l’âge du capitaine, et à la quantité de sel dans le pot-au-feu.
Les critères du Pingouin
La réalité, c’est que pour l’instant il n’y a pas d’explication unique qui tienne la route. Et c’est la particularité de cette mise à jour. Sans doute fatigué de voir les SEO décortiquer l’algo dans tous les sens, et identifier les facteurs de pénalisation pour repartir du bon pied, Google semble avoir mis de la fumée exprès :
- prise en compte des profils de linking, avec pénalité en cas de linking “abusif” ou “pas naturel”
- prise en compte de la moindre qualité du contenu, notamment pour les sites de CP généralistes, dont un certain nombre ont été dévalorisés, et qui impactent par ricochet les sites qui les utilisaient
- dépréciation annoncée des liens footer
- blasts, et autres pratiques Black Hat
Le problème, c’est qu’on trouve de nombreux sites promus en page d’accueil qui eux, “mériteraient” d’être déclassés, et qui, au contraire, profitent de Pingouin. Je vais donc rajouter mes hypothèses non prouvées à la littérature sur le sujet.
- Google a volontairement brouillé les signaux en mettant en production plusieurs filtres à la fois
- Google attend de voir comment les webmasters réagissent. Des actions correctrices importantes et immédiates lui permettraient de valider des analyses sur le côté naturel ou pas des liens
- Google accorde une place de plus en plus importante au branding (curieusement, la plupart des sites pour lesquels on rapporte des pénalisations sont des sites avec des noms de domaines génériques, du type “mots clés”)
- Google a lancé un filtre en plusieurs vagues, et comme pour Panda, corrigera les aberrations dans les semaines qui viennent (même si cela paraît très long quand on est pénalisé)
Comment réagir ?
- Rester naturel. Si vous faisiez du blast de CP, ne laissez complètement tomber vos acquisitions de liens du jour au lendemain. Continuez à faire des CP, en diminuant le rythme et en publiant sur de meilleurs réseaux
- Revoyez votre optimisation in site. Il est clair que la plupart des techniques “grises” ou “noires” sont de mieux en mieux identifiées, et qu’un bon petit ménage ne fera pas de mal
- Vérifiez les liens pointant vers vous, et les copies de vos sites. Certaines pages sont plus pénalisées à cause de duplicate content qu’autre chose
- Investissez dans les réseaux sociaux qui vous correspondent, cela prend du temps, mais c’est semble-t-il la nouvelle marotte de Google.
Les CP ça marche quand c’est bien fait
Un des gros problèmes que rencontrent beaucoup de webmasters, c’est que la mise en place d’une pyramide de liens crédible et stable prend du temps. Suite au concours Pandanarol, qui avait vu la victoire d’un SEO passé maître dans la publication massive et le negative SEO, beaucoup ont cru que c’était “la” solution, et surtout que c’était facile. Or ce qui fonctionne dans un concours de référencement sur une courte durée, ou pour faire un coup pour booster un site à court terme peut s’avérer dangereux quand on travaille à long terme sur le money site.
De même, le réseau privé, si il est une solution de sécurité pour les webmasters, qui maitrisent ainsi leur contenu, constitue en réalité une jolie bulle, facile à identifier et à pénaliser. Pour être efficace sur le long terme, une stratégie basée sur les CP doit :
- utiliser fortement les sites de CP thématiques
- respecter l’aspect naturel des liens, donc pas seulement des liens et des ancres optimisées
- être très variées sur les sources. Ce n’est pas tellement la multiplication des sites wordpress qui pose problème, mais la multiplication des sites faits de la même manière, avec les mêmes articles
- être conçue sur la durée. Le meilleur spin se fera repérer si vous sortez en même temps tous les articles sur 50 ou 100 sites de cp
Je crois qu’il est urgent de ne rien faire…
Il est malin ce Google, il brouille les pistes et attend de voir ce que font les webmasters pour mieux les cueillir ensuite !
Et puis je d’accord sur le fait que de nombreuses pages présentes en haute de classement mériterait d’être déclassées. Je pense que Google a encore des choses à déployer.
Attendons donc le deuxième effet kiss cool…
Brillant résumé de la situation et conseils pertinents. Une stratégie de référencement efficace se construit sur le long terme.
Un constat clair : le challenge va devenir de plus en plus difficile pour les nouveaux entrants et les sites jeunes !
Attendons, attendons encore un peu. Même si pour ceux qui ont subi une claque, le temps commence à être long :). Ca sent tout de même la petite finte du coté de google. A voir.
Certainement le meilleur post sur GG penguin depuis la MAJ, Bravo lumière de lune !
Je t’ai lu par curiosité, je ne me sens pas concerné même si depuis la fin de l’année dernière je soigne un petit peu le SEO sur mon blog via une extension ; je me dis que ça peut avoir une utilité quand je parle d’artistes peu connus (soit un article sur dix), je ne sais pas si je vais continuer le petit effort SEO…
Ici j’apprends des termes, des pratiques. Il y a des choses qui me restent obscures, du “blast de CP” par exemple, je ne connais pas ce monde ; “blast” pour moi c’est une œuvre en cours (deux tomes parus sur quatre prévus) de Manu Larcenet. d:-)
Je me demande quand même si tout ça mérite autant de réflexion.
Un billet clair et honnête, tu ne t’avances pas et ne dis pas de bêtises comme certains. Attendre peut être une solution, mais faire des tests est utile, la preuve, plusieurs sites sont revenus, d’autres non selon les modifications apportées. Par contre, je ne sais pas si cela durable…
@ Christophe, parfois je me le demande aussi ^^ mais les enjeux économiques pour ceux qui ne peuvent acquérir de clients que par l web sont trop importants.
Un “blast de CP”, c’est une pratique visant à envoyer de façon automatisée des tas de liens vers un site, via des communiqués de presse, des diggs sur ces CP, des commentaires dans des forums ou des blogs avec des liens d’auteurs, etc…
@ Aurélien, c’est clair qu’il ne faut pas rester les mains dans ses poches en sifflotant sur la terrasse du café. “mais” il ne faut pas non plus tout changer d’un seul coup. Par exemple, si on a un réseau de sites, et qu’on craint d’être pénalisé parce qu’on a fait des partouzes de liens footers, il vaut peut être mieux n’en enlever que quelques uns au début.
Je réagis plus vis à vis des gens qui disent “bon j’arrête les CP / les annuaires”,
Hello,
Première remarque : concernant le trafic, as-tu des évolutions anormales par rapport à la même période l’année précédente ?
Si non, je pense que ça n’est pas trop la peine de s’alarmer :)
Je rejoins totalement ton avis quant à l’idée de filtres multiples, et le résultat est là : bien joué Google, on n’a rien compris (pour l’instant en tout cas). Cela étant, comme tout filtre, il n’est pas parfait et il est probable que MC et ses acolytes procèderont à des ajustements réguliers, comme pour Panda. Donc pour l’instant, je suis également d’avis de ne rien faire, ou pas grand chose.
Quant à la polémique sur les CP, je suis loin d’être étonné que Google s’intéresse à ces fermes de liens. Il était temps ! Et il serait temps pour ceux qui n’ont pas encore compris de revenir aux bases du netlinking et de varier les liens, les sources, les ancres, …
Bref, merci pour cet article :)
Merci ^^
Mon problème très particulier, c’est que les “périodes” pour nous sont un peu glissantes, en fonction du recouvrement pas identique entre semaine de Pâques, vacances scolaires et week end du premier mai.
Donc j’ai “à 2-3 jours près” les mêmes courbes que l’année dernière.
Il me faut attendre la fin de la semaine prochaine pour être sûre de la normalité, mais effectivement, je ne me ronge pas les sangs.
Maintenant, les choses commencent à se tasser, mais j’ai vu sur les premiers jours des sites faire du trampoline, disparaître et revenir (ou l’inverse…)
Salut !
C’est la 4ème analyse que je lis sur ce petit pingouin. Bon condensé mais le problème reste toujours le negative SEO. Quand un vilain s’amusent à vous créer 5000 liens en backlinks depuis un domaine de viagra, que faites-vous ?
Je n’ai, pour le moment, pas encore trouver de solution à ce genre de problème et contacter le site ne fait évidemment pas parti de la solution :).
Si tu peux m’éclairer là-dessus, je ne dis pas non et tu ajouteras une belle valeur ajoutée à ton article.
J’avoue que je n’ai pas de recette miracle là dessus. Tout dépend déjà du site, sur les sites bien installés, je doute de la réelle efficacité sur le long terme (en revanche, faire plonger quelques semaines, oui). Là encore tout est question de profil et de régularité. Un site clean au linking correct et bien établi est beaucoup moins fragile qu’un site qui a été limite dans ses propres pratiques (d’où l’intérêt de ne pas faire de BH si on ne maitrise pas).
Je crois personnellement que qu’une partie des gens qui ont crié au BH sur leur site ont soit oublié ce qu’ils avaient fait, soit n’ont pas examiné tous les facteurs de pénalisation.
Maintenant dans un contexte particulier – un concours de ref – on a subi l’impact d’un negative SEO. Il y a un très bon article là dessus sur SEOMoz, que je suis en train de digérer.
https://moz.com/blog/negative-seo-myths-realities-and-precautions-whiteboard-friday
Pour savoir si du NSEO est possible ou non, il faudrait quand même s’assurer qu’il s’agit bien d’une pénalité liée au linkiing, et non d’une dévaluation du poids accordé traditionnellement à certains types de liens.
Si les dégringolades observées proviennent d’un abaissement brutal de valeur accordée à ces liens au profit d’autres critères, le souci du NSEO par blast ne se pose pas, ou du moins pas plus qu’avant, c’est à dire très peu pour le commun des sites web.
Par contre, s’il s’agit d’une forme de pénalité pour sur-optimisation du linking, là, c’est clair que l’on a du souci à ce faire.
Et merci pour la citation de mon article :)
Nous partageons la même analyse sur l’engouement suscité autour du Black Hat World après le succès de Pandaranol.
Je suis également convaincu que le communiqué de presse en lui-même n’est pas l’ennemi public numéro un, et qu’une stratégie intelligente de netlinking leur laisse encore de beaux jours devant eux…
@Marie-Aude : oui, je viens de le voir. Il va falloir que je le lise.
@Netcraft : je te rassure, j’ai subi du negative SEO sur l’un de mes sites et ça coincide parfaitement avec le moment ou je me suis pris une pénalité. Quelqu’un s’est amusé à mettre un lien vers l’un de mes domaines depuis 2-3 domaines pourris jusqu’à l’os qui parlent de viagra.
Résultat : j’ai pris un coup sur la tête niveau ranking. Je tente quelques feintes pour rétablir la situation mais bon ;-)
@ Ramenos :Je me suis mal exprimé. Lorsque je dis “savoir si du NSEO soit possible”, je voulais dire “savoir s’il est plus facile à mettre en oeuvre après la mise à jour qu’avant”.
Quand au NSEO qui fonctionne avec juste quelques liens depuis 3 domaines pourris ? J’ai vraiment beaucoup beaucoup beaucoup de mal à croire qu’une pénalité puisse venir uniquement de ces liens là… Tu m’aurais dit 30000,j’aurais été plus enclin l’envisager, et encore… :D
C’est la première fois que je lis cette hypothèse sur la mise en avant du branding et la moindre importance des domaines composés de mots clefs et pourtant c’était annoncé et ça me parait cohérent. D’ailleurs, j’ai 1 site qui a largement morflé et 2 qui ont été un peu impactés : tous les 3 ont des mots clefs dans le nom de domaine !
Hasard ou pas ?
Difficile à dire :) en fait le nom de domaine à mots clés fait partie des critères de suroptimisation, ça j’en suis sure. Savoir maintenant si il est important ou pas…
En tous cas c’est le seul point commun que je trouve entre tous mes sites pénalisés ! Il faudrait lancer un sondage à plus grande échelle pour savoir réellement…
Bon…. on va lancer :)
http://forum.webrankinfo.com/pingouin-branding-t154159.html
http://www.seosphere.com/forum/index.php?showtopic=15882
Enfin une bonne analyse sur ce sujet délicat.
@Marie : pour moi hasard ! J’ai plusieurs domaines avec des mots clefs dedans dont un pas difficile à trouver ;) et ils n’ont pas {encore|} été impactés.
Par contre un de mes sites à bien morflé malgré une stratégie de branding, il était fortement boosté aux cp avec un domaine de 2006. Donc pas plus d’explications de mon côté.
On commence à apprécier les premiers retour de température du pingouin.
Bravo pour cet article qui commence à mettre les nouvelles idées à plats.
J’ai perdu le 1/3 du trafic cette semaine, j’ai fais des tests sur mes mots-clés, ils sont passé a la 2ime page au lieu de la 1ere !
Je pense que si Google continu ses contre attaques, il va se faire pas mal d’ennemis ! Je vais consacré plus de temps a améliorer le referencement pour les autres moteurs de recherche tel que Bing, .. au lieu de passé tout le temps sur Google.
faire un exemple et attendre …
attendre le mouvement et ceux qui se sentent coupables bougeront par eux mêmes …
certes des sites n’ont pas été atteints mais ils pourraient le devenir à l’avenir …
nota : j’ai remarqué que les résultats locaux avaient reculés …
passant de 1>4 à 4>8 et laissant la place à d’autres sites …
voire même ils ont été supprimés sur certaines requetes !
Je ne comprends pas trop ces remaniements … en effet l’aspect local est important sur certaines recherches, ce retrait est non cohérent !
wait & see
Sebastien
Salut à tous,
Pour ma part, j’ai subie une perte de positionnement la semaine du 26 avril sur certains mots clés pour lesquels j’avais fais énormément de backlinks depuis des sites de CP. Bizarrement j’ai récupéré mes positions une semaines plus tard.
Comme évoqué dans l’article, je pense que GG essaye de brouiller les pistes et d’analyser les réactions des webmaster. En toute logique, seuls ceux qui ont des choses à se reprocher vont changer de stratégies.
Je suis content d’entendre que Google commence à attaquer les sites utilisant des mots clés dans leur nom de domaine. Je connais un des concurrents qui utilise cette technique pour se positionner sur plein de mots mais la qualité des sites est vraiment mauvaise.
Je vois que tu veux promouvoir le français en traduisant pinguin, c’est très bien.
Sauf que français, c’est un Manchot.
Rien de bien méchant dans ce commentaire, juste pour une petite précision…
C’est tout à fait vrai mais… m’enfous ^^ (en fait si tu parles de Manchot, tu casses la superbe série de “P”, “Pigeon” (pas un algo), “Panda”, “Pingouin”
Voilou ^^
Voilà, moi aussi j’ai eu une baisse de 50% de mon trafic depuis la fin d’Avril. je présume que je suis victime de la nouvelle mise à jour pingouin et j’ai du boulot de fourmi pour rendre les choses dans l’ordre en suivant les conseils de google
Bonjour,
votre analyse sur la question de ce qu’on appelle sans doute à tort des communiqués de presse est une petite merveille car elle rappelle avant toute chose des conseils de bon sens. Je crois, peut-être à tort et sans doute au vu de mon inexpérience, que pour être efficace un communiqué de presse devra de plus en plus ressembler à un blog pour pouvoir survivre.
En tous cas, merci encore pour nous avoir remis ( en tous cas à moi) les idées en place.
Jour + “160” je suis toujours “penguinisé” , je ne comprends pas pourquoi :( j’ai pourtant bien dilué mes ancres de liens, vérifié et revérifié mon contenu, mais rien n’y fait, je ne bouge pas, je suis comme “gelé” dans l’espace temps.
Quelques rares pages filtrées reviennent pourtant, mais globalement, je pense qu’il vaut mieux les recréer sous une autre url.
@ Patrice, si c’est le site qui est en lien, pourquoi mettre une ancre optimisée ?
Pingouin a passé il y a environ trois jours, si vous avez remarqué une baisse de trafic c’est que tu es touché il faut absolument revoir l’architecture de ton site
Pourquoi revoir une architecture à cause de filtres qui sautent au bout de quelques temps ?…..
Parce que les filtres ne sautent pas, ils sont complétés et affinés.
Jusqu’à maintenant je n’ai pas vu un seul site touché par Panda / Pingouin qui n’avait pas des faiblesses importantes dans l’architecture, le contenu ou les liens.
D’ailleurs, Isabelle, vous devriez aller mollo sur les ancres optimisées, un petit conseil comme ça…