La philosophie de coZop
coZop ayant choisi de répondre sur son blog à mon article précédent sur le problème de duplicate content, et de ne rien développer ici, je vous reprends les éléments essentiels de leur réponse. J’espère que le résumé sera fidèle.
coZop maintient : le duplicate content ne pénalise pas le texte
Et moi je maintiens le contraire.
1. La philosophie de coZop est d’étendre le lectorat d’un texte, pas de promouvoir un site.
On est bien d’accord avec cela, c’est même ce que j’ai écrit dans mon article. C’est à ça et uniquement à cela que ce genre de site doit servir.
2. Google ne pénalise pas les duplicate contents, c’est-à-dire que Google ne fait pas disparaître du web les contenus publiés plusieurs fois, de même il ne les rend pas moins accessibles. On peut discuter de savoir si Google envoie le trafic vers l’une ou l’autre des republications
Là je suis beaucoup plus réservée.
C’est quoi ‘l’accessibilité” pour Google ? C’est être relégué ou pas au delà de la deuxième page. Les trois premiers sur la première page trustent environ 70% des clics, le pourcentage de gens allant au delà de la deuxième page étant inférieur à 0,1% des internautes.
L’accessibilité c’est la visibilité et la visibilité c’est le positionnement.
Il est exact que Google ne fait pas disparaître une page du Web en cas de duplicate content (bien que tout puissant, notre Dieu n’a pas d’accès à votre serveur), et il est exact, (en tout cas c’est eux qui le disent) qu’ils ne pénalisent pas un site entier pour duplicate content. Donc si un site a une page A dupliquée et une page B originale, la page B sera toujours bien positionnée, même si la page A a été envoyée dans les abysses des résultats complémentaires.
Après c’est une question de vocabulaire. On peut même appeler ça promotion si on veut. La réalité est là : la page d’un contenu dupliqué publié sur un gros site perd en pratique toute chance d’être elle même bien positionnée.
Cela dit on progresse, et les réponses de coZop montrent une réelle volonté de tenter de diminuer ce poids du duplicate content.
Nous allons ajouter une balise title avec le titre de l’article pour favoriser le référencement.. Malheureusement ça ne sert à rien, des test réguliers prouvent que la balise title sur un lien, à la différence de la meta title, n’est pas utilisée pour le référencement.
En revanche, vous ne pouvez pas nous demander d’interdire l’indexation des articles, ce qui reviendrait à interdire l’indexation de tout coZop, et donc de tuer dans l’œuf notre initiative.
Ça on est bien d’accord. Quand j’ai cité cette suggestion Google, j’ai bien rajouté entre parenthèse que c’est la mort de l’aggrégateur (walou : mot d’argot en français, issu de l’arabe, et signifiant, y’a plus, aucun, parti, disparu. ). Mais ça reste, selon Google, la seule façon d’éviter avec certitude un problème de duplicate content en cas de syndication.
Sinon, parmi les près de 8000 sources analysées par coZop, seules environs 1500 sont republiées en intégralité (sur l’ensemble des articles moins de 10% sont en intégralité et donc monétisés).
Ca c’est la réponse au petit calcul sur la monétisation. Ca ne change rien sur le fond.
En fait Isabelle – puisque c’est Isabelle qui m’a répondu – ce qui m’a fait rire, et qui continue, c’est cette affirmation que la duplication ne pénalise pas l’original. Je maintiens que l’argument est un peu beaucoup tordu, alors que sur le fond, et par ailleurs, vous être très clairs dans votre objectif qui est d’augmenter le lectorat d’un texte. Alors qu’entre les lignes, vous reconnaissez à plusieurs endroits que cette pénalisation est possible.
Et que vous au sens collectif, expérimentez les résultats d’une amélioration des filtres anti-duplicate, ainsi que c’est écrit sur le blog de Thierry Crouzet
Mais à quoi joue Google ?
J’avoue que je n’en sais rien. J’ai remarqué que depuis la fin novembre son algorithme a été modifié et que coZop reçoit moins de visites. J’ai noté la même baisse sur mon blog, presque soudaine, donc technique. Je sais que d’autres sites ont vu la même chose se produire (qu’ils dupliquent ou non).
Cette modification technique, c’est effectivement en partie une amélioration des filtres anti-duplicate, qui a envoyé dans les choux toute une série de sites.
Je vais reprendre d’autres paragraphes de cet article, puisqu’il exprime assez bien la philosophie de coZop, je crois.
J’ai montré, j’espère, que la duplication devrait être un critère de qualité (ça me donne l’idée d’un business) mais que fait Google de cette information ?
Manifestement Google en a une autre idée.
Je ne serais pas surpris qu’il pénalise les contenus dupliqués tout simplement parce que ça complique son travail. Qui est l’auteur ? Facile quand la duplication pointe vers la source.
Je crois que la chose est moins simple, et moins “égoiste” que cela.
D’abord parce que le web étant ce qu’il est beaucoup de contenus sont dupliqués sans citation vers la source. Ou avec une citation erronée. Thierry Crouzet parle d’un article qu’il avait dupliqué sur Agoravox.
Je mets ma main à couper que la plupart des gens qui citeront cet article citeront – si ils citent – Agoravox, sans avoir le souci de mentionner la source originale. Il faut être des fondus du droit d’auteur, du respect de celui ci, ou des vieux dinosaures du web, pour citer systématiquement la source originelle, et la source de la source, (machin vu chez truc), comme le fait systématiquement Laurent Gloaguen par exemple.
Ensuite parce que le problème n’est pas de la facilité, ni de l’identification de la source.
Google le dit clairement dans son article sur le duplicate content et les dangers de la syndication : il choisira la page la plus pertinente pour une recherche en terme de contenu (sous entendu même en sachant qu’elle est dupliquée).
coZop a ses objectifs, Google a les siens.
Google n’aime plus les pages avec beaucoup de liens externes. Ils jugent qu’elles ressemblent à des résultats de recherche, c’est-à-dire à des pages Google, donc des pages concurrentes et il les déprécie dans son index
Si l’affirmation est vraie, la raison est fausse.
Google n’aime pas les pages avec beaucoup de liens externes parce que la pratique lui a prouvé qu’il s’agit le plus souvent de pages visant à manipuler son algorithme et à améliorer artificiellement le classement de certains sites en augmentant leur popularité.
Google n’aime pas cela.
Google a aussi remarqué que beaucoup de sites dit “MFA”, Made for Adsense, se construisait du contenu grâce à des liens, et à des liens vers des résultats de recherche, alors qu’il s’agit de contenu fictif, n’apportant rien à un utilisateur.
Démonstration.
Vous cherchez quelque chose. Vous faites une recherche Google. Vous arrivez sur une page qui vous présente… un résultat de recherche Google. Etape totalement inutile, qui vous faire perdre du temps.
Voilà les vraies raisons de la lutte contre le duplicate content : améliorer la pertinence des résultats, déclasser des sites qui tirent un revenu publicitaire sur le dos des autres, et sur le long terme préserver la pertinence de sa régie publicitaire, donc de ses revenus. Pas de se “faciliter la vie”.
Personnellement, je gère des blogs commerciaux, et un blog qui ne l’est pas. Dans aucun d’entre eux il n’y a monétisation. Néanmoins, ce que je cherche à construire avec mon blog perso, c’est un lectorat, c’est à dire un petit groupe de gens avec lesquels discuter régulièrement. Je ne cherche pas à toucher le plus grand nombre de gens possible. Je comprends parfaitement qu’on ait l’ambition inverse, et dans ce cas coZop est un des bons outils.
Il faut juste dire les choses très clairement. Séparer ce qui est philosophie de ce qui est technique web. Ne pas mélanger la valeur intellectuelle d’un texte et le positionnement d’une page donnée à travers les filtres de duplicate content.
Parce qu’à côté de gens qui savent exactement ce qu’ils font, il y a aussi beaucoup de petits webmasters qui ne se rendent pas compte.
Quelques conseils pour lutter contre le duplicate content
Pour finir, sur le fond, je crois qu’aujourd’hui c’est surtout à coZop que le duplicate content nuit. Je reste très surprise des très faibles revenus publicitaires annoncés.
Ce qu’il faut faire pour lutter contre le duplicate, c’est accroitre le contenu original.
Par exemple, rédiger un texte d’introduction original pour chaque article, voir en avoir deux, un descriptif long, et un descriptif court, et utiliser ce descriptif court dans la liste des autres articles proposés.
Vous n’avez pas le temps de le faire ? Faites le faire par les auteurs eux mêmes.
Une des choses qui me gênent dans votre concept, c’est la reprise en flux entier. En tant qu’auteur, il me semblerait normal de pouvoir soumettre certains articles seulement.
Alors puisque vous améliorez votre robot, améliorez le encore plus. Créez une balise meta index=”cozop, no cozop”, des balises descriptions supplémentaires “resume cozop” et “introduction cozop”. Faites les plugin pour WordPress, Dotclear et Blogger (rien de tout cela n’est très difficile), et vous aurez à la fois un contenu différencié, et une position différente parmi les agrégateurs.
Allons encore plus loin, soyons fous… travaillez la composition de votre pages recensant des articles. En travaillant sur ces textes d’introduction spécifiques, sur les citations courtes des articles, sur l’intégration des bibliographies des auteurs, sur la présentation du blog lui même, créez un contenu original et pertinent qui sera indexé par Google, et qui vous permettra de mettre l’article syndiqué lui même en no-index.
Est-ce possible ? Je ne sais pas, mais ça vaut le coup de le tenter. Et là, si vous arrivez à le faire, vous aurez vraiment servi votre philosophie, sans pénaliser le contenu original. Et vous serez assurés de passer les filtres de Google… pour quelques mois.
La cerise sur le gâteau
Faites le lien vers la source avec les mots contenus dans le titre. c’est à dire sur le titre directement. Ou alors “source de blablba”.
La balise title ne sert à rien.
Pourquoi tant d’amour. Deux articles à la suite … ? Tu t’occupe de leur référencement c’est ça ? ;-)
Parce qu’Isabelle Crouzet n’a pas répondu dans le prédécent article, même pas un résumé, elle a juste fait un lien vers son article de réponse sur son blog.
Pour faire cette réponse dans les commentaires, ça aurait été beaucoup trop long. En gros, au delà de 500 caractères, je passe à un nouveau post :). Il n’y a pas que la connexion dans la vie, il y a la discussion aussi :)
Et bien je viens de tomber sur du contenu repris sur ce site, j’en reviens donc ici.
J’ai demandé des explications car certaines de leurs “méthodes” me sont surprenantes…
Tu veux dire qu’un conenu a été repris sans ton accord ?
Je doute en effet avoir donné mon accord, toutefois ne parvenant pas à en avoir la certitude …
Ce qui mes gêne est la chose suivante : j’ai modifié depuis longtemps mon flux rss pour éviter le DC (en l’occurrence je fait précédé un descriptif tronqué d’un texte qui identifie la source – par exemple : “nouveauté du site la-maman-de-Toto :”) je retrouve bien ce contenu mis à dispo dans mon flux rss, mais sur les pages de catégorie, c’est le contenu original, tronqué par leur soin (un peu plus que le mien).
Pour avoir parcouru leur blog, il semblerait qu’ils prennent donc leurs sources à deux endroits : dans le flux mis à dispo et dans l’article original…
Oh si c’est facile d’avoir la certitude d’avoir donné son accord, puisque Cozop a une procédure d’identification demandant qu’on fasse un lien vers eux sur la page d’accueil du site qu’on inscrit.
A la différence du simple annuaire, ce n’est pas une chose qu’on oublie.
Il est exact qu’ils tentent de prendre leur source à deux endroits différents, justement pour pallier les flux tronqués.
Je trouve également ces procédures abusives.
Bonjour Marie-Aude,
as-tu réussi à faire cesser la nuisance Cozop ?
Moi aussi, j’ai du contenu repris sans mon accord sur leur site peu scrupuleux… et même des photos.
Bon, je note que le contenu a été retiré en 48 heures suite à un mail.
Pour seule explication : Cozop partage son contenu avec Bonweb…
Accueil sympathique de la personne qui a géré cette affaire même si il reste des zones d’ombre.