Tremblement de terre dans les SERPs ? Oui, mais non, mais oui…
Ça fleurait bon le suspense depuis quelques jours avec l’annonce du filtre contre la suroptimisation SEO, et il semble que ce soit tombé cette nuit. Matt Cutts annonçait des impacts de l’ordre de 3% sur les requêtes (plus chez les Polonais qui sont donc désormais identifiés comme des plombiers spammeurs, c’est normal, avec les serruriers, les plombiers spamment beaucoup) [pardon pour cette blague idiote), à lire les SEO ils semblent qu’ils se soient pris 100% de ces impacts à travers leurs sites de CPs.
Je pense que c’est trop tôt pour faire l’analyse. La plupart des sites dont je m’occupe ont vu des changements de positionnement légers, à la hausse ou à la baisse, avec une augmentation globale du trafic, et sur certains mots clés (pas toujours ceux sur lesquels ont cherchait à les positionner) des chutes vertigineuses ou des montées en flèches. Et difficile à analyser, étant donné la part croissante du “not provided” . Qui soit dit en passant, prouve bien une stratégie concertée, réfléchie, de “casser” un certain type de SEO.
A mon avis, les positionnements vont être très volatils sur une dizaine de jours, sur certaines requêtes il y a trop d’aberrations promues en première page. C’est un phénomène que je vois fréquemment, et que j’appelle à la machine à laver, Google va draguer un peu les fonds du classement, remonte une batée, comme un chercheur d’or, et lave tout ça. Il reste éventuellement une ou deux pépites, puis tout revient à la normale.
Mais pour moi, l’essentiel est dans une petite phrase de Matt Cutts dans son article sur insidesearch : (et traduite en français plus vite que son ombre par Loran)
Good search engine optimization can also mean good marketing (…) which can help with search engines as well as social media. The net result of making a great site is often greater awareness of that site on the web, which can translate into more people linking to or visiting a site.
(Le gras et souligné est de moi).
Le signal est clair : le Page Rank (réel) n’est plus le seul indice de popularité d’un site, et le trafic, et notamment celui induit par les réseaux sociaux, et la popularité, qui va se traduire par des like, google plus, pinterest ou twitt entre lourdement en compte dans l’appréciation d’un site.
Au delà de la pénalisation de réseaux de liens trop évidents, et de sites de CPs de mauvaise qualité, c’est un changement profond dans l’approche de Google, qui doit prendre en compte des signaux envoyés non pas par “le web” (qu’il maîtrise à peu près totalement, à travers ses crawls et ses outils), mais par d’autres sociétés, qui peuvent, elle aussi, décider de filtrer une partie des informations qu’elles laissent passer. Par exemple, Facebook n’affiche pas les administrateurs d’une page, ou les “amis” d’une personne si celle ci décide de le masquer pour la préservation de sa vie privée. A partir de ce moment là, pour un intervenant extérieur comme Google, détecter les manipulations de “Like” devient extrêmement difficile…
Il est clair qu’on entre dans une zone de turbulences et d’obscurités pour les responsables SEO, qui risquent de voir pas mal de choses changer, avant d’avoir les clés nécessaires pour trouver une nouvelle façon d’influencer Google !
C’est clair que ce matin, c’est du gros n’importe quoi. En même temps, ca part d’une bonne intention et ca permettra certainement de voir les sites “propres” émerger petit à petit car tout le monde n’a pas la chance de pouvoir 1) passer son temps à faire du SEO BH 2) payer un SEO pour faire du BH
Petite question : penses-tu qu’il faille supprimer les CP publiés ou les laisser en l’état ?
J’ai un site qui s’est fait shooté mais c’était normal qu’il tombe car nourri au LFE. Par contre le contenu était irréprochable. C’est un signal fort qui apparait là : on va pouvoir jouer du NSEO et cela va être efficace !
Sinon j’ai un autre site qui a perdu des positions mais j’attends de voir son trafic demain pour me prononcer car il fait beaucoup de visites sur la longue traine.. A voir donc !
Il me semble un peu rapide de tirer des conclusions immédiates. Attendons encore quelques jours.
Quant au reste, je pense que Google a raison de faire bouger son algorithme et les résultats. Du coté de Google, il en va de sa survie et pour les autres, il en va de la qualité réelle du web qui se construit.
Aujourd’hui, Google est tellement présent sur le web que c’est lui qui impose les pratiques et les styles de création des sites (bien au delà des normes du W3C). Donc c’est à lui de prendre ses responsabilités et d’orienter ses “guidelines” vers un web de qualité.
En tant qu’utilisateur de Google, je trouve qu’il y a encore trop de sites qui polluent les SERP avec des contenus pauvres au dupliqués.
Le brassage des SERP que tu évoques est quelque chose qui mériterait d’être déployé plus souvent à mon avis.
Enfin, quand je vois la stratégie “spammy” de certains en terme de SEO, je pense qu’il savaient les risques qu’ils prenaient et ne pourront donc pas être surpris de ses retrouver déclassé. Cela a marché tant que cela a marché…
C’est clair que le NSEO va avoir la côte avec une mise à jour comme celle-là. Google ou “Comment faire tomber les concurrents” pour les nuls ! :p
@ Moira, pour moi il est urgent d’attendre, et de laisser les choses telles quelles, sauf si effectivement on a eu la main lourde.
Mes quelques sites de CP pour l’instant ne sont pas pénalisés, en même temps ils sont atypiques.
@ Marie, tout le problème des sites avec du trafic longue traine, c’est qu’on ne sait plus d’où il vient… sauf à voir les pages les plus visitées.
@ Pierre, tout à fait d’accord pour attendre, d’autant plus que certains disent que le filtre Google n’est pas encore déployé. Le brassage en question, avec moins d’impact, je le vois au moins deux à trois fois par an sur “mes secteurs”.
@marie-aude : c’est quoi pour toi la main lourde : dizaine / cinquantaine / centaine / millier / dizaine de millier ?
Les réseaux sociaux sont, il est sûr un signe positif dans l’algo google. Je pense qui influence une possible pénalité mais de la a lui donner un poids réel dans l’aglo j’ai des doutes. On y verra surement plus clair en fin de semaine ( l’avenir sera alors pour le méchant BH de faire des bot sociaux)
@ Moira, c’est plus une question de qualité …. si tu fais des vrais articles, tu peux en faire des centaines. Si tu fais des centaines de fois le même article, et que tu as plus de contenu à l’extérieur que sur ton site, et que tu n’as que ça, tu as la main lourde
@ wabstemer, je pense personnellement qu’ils vont prendre un poids réel. Mais on verra. En tout cas, “booter” les réseaux sociaux n’est pas aussi simple que faire du LFE ^^
Le problème c’est que là, je me suis fait dégrader une page ancienne qui n’avait que 8 CP complétement différents (et qques diggs, de mémoire 4). D’où mon incertitude sur tout ce qui se passe !
A coté de ca, j’ai ma homepage qui est sur une trentaine de CP et une cinquantaine d’annuaires et elle n’a pas bougé d’un pouce (voir elle a gagné sur 1 ou 2 expressions :p).
Donc déjà ca implique que :
– les pénalités ne sont pas au site mais à la page
– le coté qualitatif des causes de la pénalité est assez flou (ou alors, je suis passé à côté d’un élément).
Pour les médias sociaux, ca fonctionne très bien dans le cadre B2C. Mais dans le cadre B2B c’est compliqué à mettre en oeuvre je trouve : ce n’est pas du tout la même démarche et dans la majorité des boîtes, les médiaux sociaux sont interdits à l’utilisation et bloqués par le firewall ! :). Donc comment on fait quand on est sur cette cible ?
Les médias sociaux B2B, c’est viadeo, linkedin, xing… mais c’est effectivement compliqué, et souvent spammy, pour être honnête.
De toute façon, je pense que les classement sont provisoires, on est en train de draguer le fond du canal en ce moment, il faut au moins une semaine pour voir ce qui se passe vraiment.
Tout à fait d’accord avec Marie-Aude, il faut attendre.
Dans ce genre de situation, je me demande toujours si ce n’est pas l’inverse qui est en fait produit :
@ mar1e : “J’ai un site qui s’est fait shooté” –> Le site en question n’est peut-être pas la cible de la sanction, c’est peut-être la “concurrence” qui s’est faite positivement distinguée.
Mais si le site est réellement shooté, il me semblerait logique que GG en soit arrivé à appliquer pour un lien donné un ratio entre le nombre de rédactionnels sources et le niveau de présence de la cible dans les partages sociaux. Ceci, pour deux raisons :
1) Plus la cible d’un lien est présente dans des CP et moins elle est promue par le “public”, plus il y a de chance pour GG que ce soit le fruit d’un travail de manipulation des Serps.
2) idem, plus la cible d’un lien est présente dans des CP et moins elle est promue par le “public”, plus il y a de chance que le contenu ciblé ne plaise pas au public ou ne soit pas d’actualité, ce qui serait un indice pour GG pour lui donner moins d’importance.
Si GG devait utiliser (ou utilise) un tel ratio, cela lui permet(trait) en plus d’affiner le trustrank des NDD formatés pour accueillir beaucoup de contenus rédactionnels avec ancres intext, donc effectivement de pouvoir en sanctionner certains.
Encore une fois, attendre quelques jours avant de tenter une parade, car GG n’a peut être pas terminé son check-up.
hu Marie-Aude,
tu m’as même pas cité pour ma traduction de la lettre de Matt Cutts ;)
Je l’ai vécu hier soir (le 24 avril donc) en direct live sur Twitter et j’ai découvert avec effroi que certains de mes sites avaient sombré – y compris celui pour lequel j’avais fait un blast sale avant hier, looool- mais en même temps j’ai vu certains de mes sites sans mérite ni légitimité propulsé en haut du classement.
Pour moi, cette mise à jour est clairement incomplète et rate son but. Parce que principalement il y a des dommages collatéraux et que certaines techniques BH ont été favorisées. C’est une erreur de conception côté GG.
En tant qu’e-commerçant, je n’ai pas senti de changement. Les gros mot clés n’ont pas bougé, et quelques légères positions en plus sont venues sur des mots clés plus fins.
Par contre j’ai remarqué la baisse de sites un peu moins qualitatifs, servant généralement de renvois de visiteurs comme des guide shopping.
Comme pas mal de monde je suis pas mal paumé sur les tenants et les aboutissants de ce bouzin, je ne discerne aucune logique dans les évolutions, les pages de résultats proposées par google font pitié à voir, on va dire qu’il est urgent d’attendre (et de croiser les doigts ^^)
C’est bien joué de leur part en tout cas , comme en politique on crée un sentiment d’insécurité croissante pour vendre sa soupe.
Le pourrissage de site de concurrents va sûrement devenir un business bien juteux, merci msieur google pour ce web plus propre (lol) !
Bonsoir Marie-Aude,
J’abonde dans ton sens et cet extrait résume bien la situation, je te cite “(…) prouve bien une stratégie concertée, réfléchie, de « casser » un certain type de SEO.”
Les méthodes Black Hat, grandement popularisées à mon sens depuis la Serp Domination du concours Pandaranol, ont fait rêver plus d’un référenceur, qu’il soit inhouse ou indépendant ! Même si ce concours ne cristallise pas à lui tout seul tout le marché BH, il a vraiment provoqué un engouement qui a boosté le mouvement.
Cela n’a peut-être pas grandement influencé le roadmap de Google, mais la réaction du Suprême Master of the Serps est bien là aujourd’hui.
Quant au passage SMO, je te re-cite “(…) pour un intervenant extérieur comme Google, détecter les manipulations de « Like » devient extrêmement difficile” c’est sûrement vrai, et c’est pourquoi je pense que le critère social sera grandement pondéré, car à l’heure où on peut acheter 200k fans et autres 1000 RT + likes pour quelques roupies, je n’attribue personnellement AUCUN crédit à ce paramètre-là.
Voyons la suite…
@ Loran, désolée, je bosse en langue de Shakespeare, alors que c’est vrai que tu as dégainé plus vite que ton ombre
Je fais partie de ceux qui ont la chance d’être à peu près épargnés, on verra sur le trafic en fin de semaine prochaine (pas de bol pour moi, c’est en période de vacances, donc totalement atypique pour mon trafic, [celui de mes sites qui vendent des produits] , et encore plus difficile à analyser).
Pour le pourissage de sites concurrents, je n’y crois pas trop sur le long terme. Mais je suis peut être naïve.
Bonne analyse ! Laissons nous un peu de temps pour tirer des conclusions.
Le déploiement de ce nouveau filtre va inciter à créer des sites user friendly (design, ergonomie, rédactionnel…), pratiquer un linking de qualité (éviter de publié 50 CP en une semaine sur des “WordPress dézippés à la va-vite”), varier les ancres et désoptimiser (si si, ça fonctionne) et enfin affiner sa stratégie sociale en utilisant les signaux sociaux comme levier SEO.
Et pour les plus audacieux, avoir l’air naturel tout en utilisant des techniques de référencement avancées ;)
Amitiés,
@ Nantes, si pandanarol a fait rêver des gens qui ne connaissaient pas ces techniques, elles existent depuis longtemps… et ceux qui les pratiquent prédisaient bien que “ça allait se casser la figure”. Quelqu’un a aussi rappelé, à juste titre, que la France n’est sans doute pas le fer de lance de Google, et que la lutte pour la qualité se joue d’abord en anglais.
Le problème c’est qu’un spin de qualité c’est plus facile à faire en anglais qu’en français… les outils existent là aussi depuis longtemps, le recyclage “infini” du web. Mais c’est ce que proposent aussi d’une autre façon les réseaux sociaux.
Bref, moi je vais aller faire la même chose que Svetlana …
En fait, après quelques analyses, le système dess CP ne sont pas en cause … c’est vraiment la suroptimisation faite par les SEO donc on ne peut s’en prendre qu’à nous même.
Je sais plus qui disait sur un autre site : trop de liens optimisés pile-poil sans nofollow, liens avec “cliquez ici” and co … c’est les syndromes. Donc pour sortir nos pages (et pas nos sites, c’est bien page par page). Il va falloir pondre des liens foireux sur des expressions qui ne riment à rien, sur du no-follow …
Je suis en train de faire ce travail sur une page qui a en tout et pour tout : 7 cp et 3 digg. On verra la proportion qu’il faudra atteindre pour que inverser la tendance. Je ferai part des résultats à Marie-Aude ;o)
Houla, j’ai écrit à l’arrache, c’est bourré de fautes de français et de syntaxe. Désolé :(
Comme beaucoup d’entre nous, j’ai pris quelques claques mais je limite la casse. J’ai passé une partie de cette journée à analyser et discuter autour de tout ça.
Pour l’instant, difficile effectivement de sortir les raisons, en tout cas pour moi. Plusieurs hypothèse sont possibles et plusieurs seront peut-être même valables. La difficulté prochaine, c’est que même des sites qu’on considéré comme propre avec un référencement “propre” ont souffert. Il va peut-être revoir pas mal de points.
J’ai bien l’impression que cette update englobe en réalité plusieurs annonces successives. En y regardant de plus près, les sites que je vois un minimum pénalisés sont, soit avec la blinde de pubs, soit avec un contenu pauvre, soit avec une navigation/ergonomie déplorable.
Quand Google annonce qu’il ne faut pas bloquer nos JS ni nos CSS, ça sous-entend peut-être qu’il est capable de mieux cerner le layout global d’une page. Des brevets avaient été déposés dans ce sens d’ailleurs je crois…
RAS de mon coté sur les clietns que je gere et pourtant j’ai eu un coup de filppe concernant le keyword stuffing.
JE ne suis pas un gros utilisateurs de CP ni de link building borderline du coup je n’aipas grand chose a craindre a priori de ce coté la.
Seule “tout petite” inquiétude, c’est l’impacte de la pénalité pour “iens qui ont rien a foutre ici” dans la mesure ou je suis un adepte du Gentil Comment spamming Facon bisounours
Bonjour,
Ce qui est amusant avec les filtres de Google, c’est leurs capacités à virer des sites plus ou moins “propres” et de laisser des requêtes avec des résultats spammés comme pas possible. Oui je pense à c4sino, vi4gra, parfois r3ncontre, etc…
C’est une véritable foire au BH et ça dure depuis des années.
A se demander si la nouvelle stratégie à adopter n’est pas de se lancer dans une série de site “Kleenex”, de le rentabiliser au max et de passer à la suivante des qu’elle pète des SERP…
Quand on analyse les BL des sites sur la requête “p0ker”, ça embaume l’achat de liens à plein nez. Des liens sur des sites totalement sans rapport, avec un beau pavasse de texte optimisé et l’anchor bien au milieu. Niveau lien naturel on a vu mieux.
Enfin bref, quand je vois des webmasters qui ont mis des années à faire avancer leur site pour faire vivre leur famille, ça me fout les glandes de voir autant incohérences dans les résultats, et depuis des années.
En gros je dis chapeau au BH et à ceux, qui finalement, ont décidés de ne pas respecter les guidelines des moteurs qui font tout pour promouvoir leur produit en brisant la concurrence !
Merci le web 2.0.
Mille excuses pour l’orthographe, je n’ai pas un niveau d’étude très poussé ^^
Et merci encore pour vos articles pertinents. Bon nouveau ref à tous !
@ totoseao, je crois plutôt que sur les 3P et la rencontre, il est impossible de trouver des sites professionnels et propres :D (c’est d’ailleurs pourquoi je décline quand on me demande de bosser dans ces secteurs ou des thématiques voisines, pas une question de morale, mais je ne sais pas faire).
Il y a deux sortes de sites, en fait : ceux qui rapportent par leur positionnement (MFA, affil, business purement en ligne), et ceux dont le positionnement permet de vendre des produits (ou de se faire des potes). Pour ceux là, la stratégie du site Kleenex,très utilisé pour les premiers, ne marche pas.
J’avoue qu’il faut être sacrément couillu pour monter un business qui dépende entièrement de Google.
@ moira (osef l’orthographe, t’es lisible), le problème c’est que ces pages, pour moi, sont des pages sur lesquelles je n’ai pas fait de ref. Elles sont montées parce que Google les aimait bien et redescendues parce qu’elles ne lui plaisent plus… en revanche les liens foireux et tout, oui, j’en fait, j’en ai aussi parce que j’ai des gens qui me font des liens, et dans mes stratégies de publication, j’en utilise régulièrement.
@ Antoine, assez d’accord avec toi. Je réfléchis à une stratégie de transparence globale vis à vis de Google [enfin presque… faut pas charrier]
Oui, j’ai effectivement noté des changements cette nuit et mon site a bien progressé. J’éspère que ces résultats ne vont pas retombé à la baisse en tout cas.
Bonjour,
Je pense que le métier de SEO va progressivement s’orienter vers les réseaux sociaux (notoriété) mais surtout vers un travail de fond dont le référenceur ne pourra pas s’exonérer.
amicalement
Oui effectivement le SEO va évoluer mais c’est sans doute un mal pour bien il faut arrêter de prendre GG pour un C_N, on a joué avec le feu et on a perdu enfin pas tous…
GG veut du naturel, on le sait maintenant à nous de l’appliquer !
RAS de mon côté non plus, j’ai plutôt profité des pertes de position de mes camarades. Pas de stuffing pour moi ni de liens bizarroides, pas beaucoup de CP ou alors sur des sites bien choisis.
Diversifier ses sources de trafic est plus facile à dire qu’à faire mais en dépendant moins de Google (plus de référents, plus de direct, des newsletters…), les mises à jour du moteur dictateur du web font moins peur.
@Marie-Aude : Je confirme ^^ Baser toute sa stratégie financière sur Google est une véritable folie ! J’ai perdu gros il y a quelques années et j’ai du repartir de zéro. Du coup aujourd’hui je passe par des systèmes plus “Grey” mais plus rentable et pas forcément dépendant de Google…
Du coup mes sites n’ont pas été touchés mais surtout continuent a recevoir des visites, ce qui reste le principal.
Il va falloir repenser notre SEO dans les mois à venir, en attendant un nouveau filtre qui nous dira comment faire par la suite, etc. etc. etc.
Peut être même repenser notre façon de voir le web, qui sait ? ^^
Bonne journée :)
Apparemment, un bon nombre de webmasters se posent la question si les liens des CPs sont en cause. Par contre, je n’ai vu personne se demander si les BL optimisés, que l’on colle dans les commentaires, ne sont pas aussi à l’origine de la pénalité.
Finalement, il semblerait que ce soit un update de Panda qui ait frappé.
Ce qui m’expliquerait pourquoi ce sont les pages “catégories” de mes blogs, par exemple, qui ont été touchées :D
Même constat sur pas mal de pages internes qui ont disparues…
Si Google n’aime pas les liens et ancres optimisés, il serait bon et pertinent qu’il ne les prennent pas en compte pour le positionnement des sites, et non pas “punir” les sites qui font ce type de liens.
Mais ça demanderai pas mal de travail en plus sur les algos, et aux 35 heures, personne n’a envie de ça… ^^
Ce serait pourtant simple et ça éviterai dans le futur de voir ses sites déclassés sauvagement si d’un seul coup Google n’aime pas tel ou tel type de liens ( comment savoir à l’avance, Mr Google ??? Comment savoir ce qui est SEO Friendly sans avoir de directive “claires” ! ).
Et quand aurons nous une véritable liste de conseils, en règle, donnée par Google afin d’arrêter de perdre du temps à faire un référencement qui va prendre des mois pour finalement se retrouver déclassé comme un caca… ?
Mais c’est le jeu depuis des années. C’est bon pour Google puisque les résultats bougent. Ca donne l’impression d’un moteur pertinent ( je lol ! ) et les visiteurs lambdas sont ravis et continuent de cliquer sur les pubs Adwords.
Pas vraiment sûr que Google est envie de jouer la transparence, surtout que quoi qu’il arrive, nous continueront tous à espérer de bonnes positions dans ses résultats et nous continueront à tous faire pour suivre ses directives, au gré de ses filtres et ses envies du moment.
Le pire c’est qu’on ne peut même pas se rabattre sur Bing, niveau SEO, c’est une véritable foire. Complètement aléatoire.
Enfin bref, ^^ je râle mais mes sites n’ont pas été touchés mais je ne peut m’empêcher de penser à ceux et celles qui ont perdus un travail monstre en l’espace d’une nuit, même avec des sites propres et un référencement sans BH… Au nom d’un moteur plus “propre” ( re lol ).
Et toujours autant pour moi pour mon orthographe ^^
J’ai oublié… ^^
Le négative SEO va devenir de plus en plus facile maintenant.
Entre les ancres bien optimisées dans des commentaires de blogs bien sur-spammés de vi4gra, vu1tton, s3otons, des bookmarks bien opti pingués 10 fois par jour pour saturer les moteurs et autre cochonneries, les résultats vont bouger plus encore.
Google devrait mettre en place un système “d’exclusion de liens” qui ne rentreraient pas en compte dans le classement, sans pénalité. Ca éviterai bien des débordements.
On en parle rarement mais le négative SEO se fait chaque jour, sur tout type de requêtes et depuis des années, malheureusement. Une race sans respect pour le travail des autres…
Que Dieu nous garde tous.
Pour moi tout est normal dans cette mise à jour.
Mon seul site sur un gros top keywords référencé en spam à sauter et tous les autres ont pris des places.
Quelques conseils :
Varier vos encres en maximum, avec des encres sur une phrase ect.
Réfléchissez, un site avec que des encres optimisé, cela fait naturel ?
La réponse est non !
Pour le reste, google à fait trop d’erreurs dans sont algo et prend en compte les réseaux sociaux pour classer ces sites
En résumé foncez sur !
Je rigole mais presque pas (pour ceux qui sont en mal de ranking, me m’appeler, je peut proposer des partages sur des 10ènes de pages facebook PR5, trafic important garantie et augmentation de votre réputation social^^)
Ce qui me fait peur dans tout ça, c’est que le negative seo va devenir de plus en plus facile à mettre en place.
Si déjà des liens dans certains sites de CP peuvent nuire au référencement, alors un blast LFE ou autre va faire de sacré dégâts.
Enfin, en tout cas ce phénomène serait a étudié et mériterait quelques tests.
Ca fait déjà plusieurs fois que je croisais tes conseils avisés sur les forums WRI et WordPress.fr, je sais maintenant, et tardivement, que tu as aussi un blog. Bookmarkée ! Pour ma part, concernant ce filtre, je constate une chute en naturel alors que je n’utilise aucun site de CP. Du coup est-ce que çà ne serait pas plutôt la mise à jour de Panda ? En tout cas les printemps chez Google se suivent et se ressemblent…(Caféine, Mayday, Panda, etc)
Merci beaucoup pour les conseils et ton article concernant Google qui fait actuellement un buzz. Il est temps qui tire la chasse d’eau parce qu’actuellement nous avons des drôles de résultats. Je me demande (A force qu’il fait des caprices) si un jour les utilisateurs ne vont pas se tourner vers la concurrence. A bientôt Marie, de sébastien.
Mouais… il y a évidement ces signaux sociaux, de plus en plus mis en avant par GG mais contournables facilement, je crois plutot en la dévaluation de liens dits non naturels… des sources anglaises confirment, cf mon twitter
j’arrive un peu tard …
en voyant les commentaires, on voit bien la claque donnée par google a toute une communauté, sans justification/explication apparente !
Maintenant que c’est en place et que tt le monde tremble ou du moins a bien compris le message, GG propose un tool pour ceux qui aurait abusé ou été abusé …
Volonté ou non c’est bien GG qui décide de la danse …
Fred