Madmoizelle.com : les questions à se poser ?

Screenshot du haut de la page d'acceuil
La page d'accueil de Madmoizelle

Marie-Aude

J'ai fait de la compta, de la finance, du juridique, j'ai été chef de projet SAP, j'ai fait de la photo, des voyages. Depuis 2007, je fais avec amour des sites webs pour les utilisateurs, qui se référencent bien et je vous aide à acquérir du trafic pertinent.

Vous aimerez aussi...

31 réponses

  1. Je n’irais pas plus loin qu’un “Merci !”

    Bon en fait si, mais merci parce que voir de multiples théories (fumeuses ?) ressortir sur le net, ça en devient exaspérant. L’entraide oui (et heureusement !) mais quand on y connait rien, ce serait bien de s’abstenir…

    Alors certes, tu n’as peut être pas trouvé la solution totale, mais au moins ça se tien et ça fait avancer le schmilblick.

    En tout cas, belle observation !

  2. Luc dit :

    Article super intéressant ! Ce site avait il déjà fait des audits SEO ?
    je suppose que non, à lire cet article.
    en tous cas je remarque que les pages de tag ne sont pas indexées (à ce jour) ce qui est plutôt une bonne choses étant donné le nombre…

  3. SylvainV dit :

    Tu publies moins souvent qu’avant, mais franchement, tu fais les meilleurs articles (avec A Berrut) sur le SEO. Toujours aussi intéressant à lire.

    Pour revenir au sujet, le site vends des articles sponsos, indique bien la mention “article sponsorisé” sur la page mais… laisse les liens en DF.

    Bref, on dirait qu’on a affaire à un cumulard !

  4. Guillaume dit :

    Enfin quelqu’un qui a pris le temps de commencer une vraie analyse. Je pense qu’ils ont trouvé leur nouveau consultant ;)

    Il ne leur manque plus qu’a t’ouvrir leur accès aux logs et analytics pour vérifier tes propos.

    Je me demande si les pages désindexées étaient actives ou non. Je parie que ça fait des mois qu’elles n’avaient pas généré de trafic organic.

    • Marie-Aude dit :

      Pour le trafic, c’est une très bonne question. D’après ce que dit Fabrice, oui, elles étaient actives, puisqu’il y a une grosse chute de trafic. Il mentionne des articles, et même la page d’accueil, pendant quelques heures.

  5. carine dit :

    Merci! J’ai a peine lu les commentaires sur le site de Madmoizelle et j’ai vite laissé tomber, il me semble bien que le soucis est en effet bien plus complexe, et plus en profondeur (pas compliqué d’en arriver a cette conclusion sans avoir fait d’audit)

    Belle synthèse, et bonne réactivité! :)

    En parcourant les avis des lectrices (teurs) du site j’avais envie de dire a Fab que ce n’était p.e pas une bonne idée de prendre les avis de tout le monde en meme temps en situation d’urgence, ca peut vitre être la confusion et effacer les priorités

  6. Cédric dit :

    Wow !!!

    Ça c’est de l’article :-) et une belle analyse !

    Au niveau des tags (ou plutôt des termes de taxonomies – soyons précis) s’il m’est arrivé de les gérer de manière disons “optimisée” (par ex. sur mon blog photo où leur liste est une liste FINIE et maîtrisée, sans jamais un doublon), avec le temps et l’expérience j’ai surtout appris à m’en méfier et à finalement n’y voir que des outils d’ergonomie pour l’internaute (et encore…) plus que des points d’entrée “SEO”.

    Les 404 à foison peuvent aussi impacter de manière très négative un site, j’en ai fait l’expérience (j’ai récupéré un site avec +1200 URL en 404 suite à une refonte…) donc il faut “aussi” gérer cela de manière fine et régulière.

    Quant aux liens internes, plus je fais des sites, moins j’en fais… Sur ce point Madmoizelle est un bel exemple de ce que je ne ferai donc pas !

  7. Blackterril dit :

    On peut aussi considérer la thèse du full duplicate via cloacking de leur site( relevée sur Twitter ) comme une piste mais sans accès aux données c’est compliqué.

    exemple : https://www.google.com/webmasters/tools/mobile-friendly/?utm_source=psi&utm_medium=referral&utm_campaign=uxresults&url=http://www.ffcharts.com/femmepascherdoudoune.asp%3Ftrucs-demeures-internet-2015-78831

    En attendant c’est un bien bel article qui servira certainement de base à beaucoup . Ils ont tout de même pas mal de pain sur la planche pour tendre vers les “bonnes pratiques”

    • Sylvain D dit :

      Perso, j’aurai considéré cette “thèse” comme étant LA RAISON de cette désindexation… Mais effectivement sans les accès complets aux données difficile de confirmer.

  8. Yann dit :

    Bravo Marie-Aude pour cet audit front-end de leur site. Avec tout ça j’ose espérer que la considération du métier de SEO sera quelque peu revalorisée… Donc merci pour avoir pris le temps de faire cette analyse.

  9. Erwan dit :

    merci pour cet audit SEO. Il a bien de la chance d’avoir les meilleurs SEO à son chevet.

    Je ne vais pas parler de Mad’, que je ne connais pas assez bien mais tes arguments sont bons. Pour mon magazine féminin (ô combien minuscule par rapport à Mad’), j’ai essayé dès le départ de réduire au maximum le nombre de pages (inutiles) indexées : tag, archives, numérotation, …
    Au final, 3030 pages indexées pour près de 2900 articles et 46 catégories ou sous-catégories. Faudrait que je regarde ça de plus près, j’ai sans doute des choses à travailler.

  10. Le juge dit :

    Hyper complet, tres bon ils pourraient deja commencer par cela – Il m’avait semblé lire qu’ils avaient aussi un probleme de scrapping / duplicate – ca peut jouer – je vais moi meme rediger un article sur ce sujet – mais comme j’ai pas creusé je ne suis pas sur non plus

  11. CreaNico dit :

    Bravo pour cette très bonne analyse ! Et merci à Fabrice de l’avoir partagée…
    Comme je l’explique souvent, il vaut mieux ne pas utiliser les tags que de mal les utiliser, c’est une source de génération de duplication de contenus et pages à faibles contenus, et pour moi c’est le plus gros défaut de WordPress.
    Pour les publicités, étrange qu’ils n’aient pas été pénalisés avant car Google possède un algorithme dédié aux publicités abusives et quand on voit ta capture, c’est clairement exagéré !
    Il est clair que le cumul de toutes ces sur-optimisations, de publicités, de mauvaises utilisations de WordPress,… il fallait s’y attendre…
    J’ai lu plusieurs fois que tu n’aimes pas Yoast, mais personnellement, correctement configuré, il donne d’excellents résultats.

  12. Pascal_ccbb dit :

    Salut Marie Aude,

    cool ton analyse, je te suis à 200%, je rajouterais qu’il faudrait analyser les backlinks, il y a une hausse de BL très (trop) forte depuis quelques mois… Je rajouterais donc ça à ta globalité de signaux

  13. Arnaud dit :

    Salut Marie-Aude… et bravo pour cet audit !
    Je dirais qu’ils n’ont plus qu’à te remercier pour cette première analyse et te commander le reste de l’audit ! :)
    En tout cas tu montres aisément que le SEO c’est avant tout de l’analyse et de la logique et pas un simple plugin à installer ou un bouton magique à enclencher. Merci !

  14. Ghislaine dit :

    Franchement bravo ! Ton analyse est claire et pertinente, et c’est un vrai plaisir à lire, même pour une néophyte qui n’est là que par curiosité et qui essaie de comprendre comment ça marche.

  15. Frédéric dit :

    Beau travail, un bel audit externe et au final encore une listes de points parfois un peu pointus mais régis par le bon sens.

  16. Mlle Gima dit :

    Whouah !

    Ton article est touffu, complet, et même sans avoir la moitié de vos connaissance en SEO je l ai trouve passionnant.

    Merci

  17. Michael dit :

    Le problème est sous nos yeux depuis 10ans et Google vient de le remarquer, il y a 2 fautes d’orthographe à MadmoiZelle. désolé je devais la faire celle là.
    Perso j’ai abandonné l’utilisation des tags c’est un point très important , ça sanctionne un moment ou un autre si c’est mal géré, surtout avec ce nombre important d’articles. Il vaut mieux avoir des catégories et faire du maillage seulement sur certain terme semblable à des tags. La technique c’est de copier Google, voyez vous des tags dans leur contenu ? Non juste du maillage à foison. ex : https://support.google.com/analytics/answer/1008015?hl=fr&ref_topic=3544906
    Merci pour cet article ! ça manque ce genre d’analyse, bon rétablissement à MadmoiZelle.

  18. ybet Patrick Lejeune dit :

    Bonjour, Marie-Aude.
    Les “perturbations” ont débuté fin décembre 2015 – tout début janvier 2016: les deux mises à jour de mi-janvier sont justes des modifications (ou plutôt des soubresauts plus importants) qui ont été plus vite détectés parce que touchant plus de pages et de requêtes en même temps.
    Ce pourrait être Panda qui est annoncé depuis des mois mais j’en doute. Reste Google Quality et Pinguin. Je sais pas le quel mais un de mes site touché par Pinguin ET Quality a largement profité de cette mise à jour de prêt de deux mois. Comme modification c’est derniers mois (avant la mise à jour): transfert des liens en contenu vers fin de page dans les articles avec les mots laissés dans le contenu …. les gourous du référencement qui parlent de liens sous la partie visible ont tord! Quelques autres modifications liées à la position des liens (et pas forcément des liens répétitifs … deuxième erreur des gourous en INTERNE). De même, le transfert des liens de la partie droite vers la gauche (donc avant le contenu) font écrouler la page … et celles qui reçoivent: c’est probablement Quality.
    Le site qui monte n’est normalement plus copié (en dupplicate) nulle part. C’est quand même +30-40% de montée.

    Michael n’a pas tord, le maillage répétitif est une des raison de Pingiun aussi. Ce qui sauve les tags, c’est que le lien reprend le plus souvent une anchore reprise aussi dans le contenu.
    Pas la peine de le publier, tu as des grosses pistes pour répondre sur WRI sur quelques questions sur les pénalités.
    Patrick.

  19. Guillaume BlogResto dit :

    Bonjour Marie Aude,

    Cette analyse est passionnante et comme souvent sur votre site les commentaires génèrés, le sont tout autant.

    J’ai bien compris l’intérêt de désindexer le contenu pauvre et cela est certainement encore plus vrai avec un gros site tel que mademoizelle.com.

    Finalement, indexer seulement les articles et pages voir les catégories, est ce une bonne solution ?
    Ou faut il simplement savoir se pondérer ?

    Lorsque tu abordes la sur-optimisation et la fameuse triplette ;) ! Il est clair que dans le monde du référencement le jeu est souvent l’optimisation sans passer en sur-optimisation. J’ai l’impression aussi suivant le contexte que ce qui vaut pour un site A ne vaut pas toujours pour un site B.
    Est ce qu’ aujourd’hui certaines pratiques d’optimisations de contenus sont totalement bannies ou c’est le cumul de pratiques qui est néfaste. En gros comment savoir si je fais plus qu’optimiser et qu’elle est la limite acceptable?

    Merci encore

    • Marie-Aude dit :

      Hello Guillaume,

      je n’ai pas de règle stricte :) cherche dans ce blog un article sur ma grand mère qui faisait un excellent pot-au-feu ^^ pour savoir ce qu’il faut indexer, cela dépend vraiment de chaque site, et cela s’articule sur une analyse de mots clés. Désolée de ne pas pouvoir être plus précise :)

  20. Guillaume BlogResto dit :

    Merci Marie-Aude, je vais me faire un plaisir de goûter ce pot-au-feu alors. ;)

    A bientôt

  21. Marc dit :

    J’ai un certain doute sur cette subite baisse, en corrélation avec des modifications profondes du sites et les explications ci-dessus, et même la réponse de Google qui a été faite.

    Google commet parfois des erreurs de crawl, parfois très lourde, je connais et j’ai donné. Il s’agit parfois de tests chez google, notament lorsque qu’un ingénieur (ou stagiaire) pond un algo (par exemple) destiné a deceler des urls dans du texte sans que cette url soit entourée de balises. C’est un exemple , il y a d’autres modifs dans les tests de crawl et améliorations des algorithme liés a ces fonctions qui sont possibles et fréquents, avec parfois des bugs ou des malfonctions.

    Le fait est que cette baisse est consécutive a des modifications profondes du site, la corrélation semble évidente même si elle n’est pas absolument certaine.

    Cela m’est déjà arrivé de procéder a des modifications importantes et sans le voir immédiatement, créer des erreurs de liens que l’on retrouve sur … 8 millions de pages … et Google ne peut les signaler que 6 MOIS PLUS TARD …
    Il suffit d’un espace de trop dans l’url, une virgule etc pour casser des millions de liens sans s’en rendre compte dessuite.

    Et il suffit de laisser en l’état 2 ou 3 jours, si Google crawl très rapidement le site, même si l’on répare sont erreur, le mal est fait Toutes les pages crawles en 2 ou 3 jours sont en cache, et l’extraction / suivi des liens suivants se feront sur ces pages en cache chez Google. Et il faudra des mois pour que cela reviennent a la normale…

    Et il se peut même que le développeur qui a fait l’erreur le cache discrètement, une fois le code remis en place, ni vu ni connu.

    Donc voilà, je doute un peu de la mauvaise interprétation de la balise meta robots qui n’a pas lieu d’exister, sauf si l’on veut INTERDIRE a celui-ci certaines fonctions. Sinon, il vaut mieux ne pas la mettre puisque dans ce cas le robot indexe et suit les liens.

    • Tazzaz dit :

      Bonjour,

      Je viens de lire votre théorie, et je trouve que cela ressemble plus à de l’extrapolation à partir d’un cas particulier (et personnel, d’après ce que j’en comprends) que d’une généralité reconnue ou du moins que d’autres sites ont déjà rencontrées.

      Les URL et la balise meta robots sont quand même la base d’un moteur de recherche et je doute très sérieusement d’un bug de cette ampleur sur une telle application. Les tests de non-régression pour ce genre de mise à jour doivent être énormes et une grande partie est automatisée.

      Comme l’article l’a montré, même si Google a reconnu un bug, la cause de ce changement peut aussi être lié à une accumulation de petites mauvaises pratiques sur votre site qui finissent à un moment par dépasser la ligne rouge, et là c’est la sanction brutale.

  22. greenmaman dit :

    bon ben Mademoizelle peut et dire merci pour cette excellente annalyse j’en apprendun peu plus sur le seo pour ma part c’ets super

  23. Bernieshoot dit :

    Bonjour,
    tout d’abord merci pour cet article qui a beaucoup de pertinence.
    J’ai une question concernant les catégories, est-il préférable d’avoir une catégorie avec 200 articles ou deux catégories avec chacune 100 articles.
    Un exemple imaginons une catégorie “portrait” elle pourrait être scindée en “Portrait au féminin” ” portrait au masculin” ,
    Est-ce que ça a du sens ? totalement inutile ? …
    Merci pour votre avis.

  24. Julien dit :

    Excellente analyse Marie-Aude !
    Est-ce que tu avais contacté la rédaction de Madmoizelle suite à ton article ? Juste à titre informatif car ils auraient de nombreuses leçons à tirer de ton excellent article : complet et précis, comme à ton habitude ;-)

    Julien

  25. Klerdesign dit :

    Excellente analyse, un vrai travail de bénedictin ! Je suis bluffé. En fait, non. Parce que je lis tes posts depuis quemques temps mais quand même, c’est super impressionnant ! À te lire, j’ai cru comprendre que les Urls un peu trop longues ne plaisaient pas à Google ? Que faire dans le cas où ces Urls sont générées dynamiquement, est-ce que Yoast — je sais, ce n’est pas du SEO mais ça simplifie les choses si c’est bien paramétré — est-ce que Yoast donc permet de supprimer certaines valeurs des Urls uniquement à destination de Googlebot ? OK, ce n’est pas le sujet mais je suis entrain de revoir tout mon SEO et ça fait un bail que j’ai pas mis le nez dans tout ça… Merci pour ce super post. C’est une mine d’or !

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *