Duplicate content : dans quels cas nuit-il au référencement ?

Publié le 1 octobre 2009 par Delphine Dietrich Soyez le premier à commenter »

De nombreux articles parlent des méfaits du duplicate content sur le référencement. D’autres, comme Webrankinfo, s’attachent à démontrer que le fait que Google pénalise un site pour cause de contenus dupliqués est une croyance erronée. Pour y voir plus clair, le plus simple est d’aller se renseigner à la source : Google.

Contenu dupliqué non-malveillant : Google ne vous pénalisera pas

Google fait la différence entre le contenu dupliqué non-malveillant et le contenu délibérément dupliqué afin de manipuler le classement du site par les moteurs de recherche. Exemples de contenu dupliqué non-malveillant cités par Google :
- Forums de discussion pouvant générer à la fois des pages normales et des pages « raccourcies » destinées aux mobiles ;
- Articles en vente affichés ou liés via plusieurs URL distinctes ;
- Versions imprimables uniquement de pages Web.

Google indique pénaliser les sites sur lesquels du contenu en double est détecté uniquement dans les rares cas où ils estiment qu’il s’agit de pratiques trompeuses. Sinon, il assure que cela n’entraîne pas de conséquences négatives particulières pour le site.

Dans quels cas faut-il lutter contre le duplicate content au sein de son propre site ?

Google ne vous pénalisera pas volontairement, non, cependant le contenu dupliqué peut quand même nuire à votre référencement. Il me semble que c’est clair dans certains cas, moins dans d’autres.

Cas dans lesquels le duplicate content nuit clairement au référencement :

Si plusieurs pages identiques sont accessibles via plusieurs URL, vous éparpillez alors vos efforts de référencement. C’est le cas dans les exemples suivants :

  • Indexation d’un site avec et sans www.
  • Triple indexation des pages index : http://www.site.com/dossier, http://www.site.com/dossier / et http://www.site.com/page/index.htm
  • Mise en place de réécriture d’URL sans utiliser de redirections 301.
  • Existence de plusieurs versions d’une même page, par exemple une version normale et une version imprimable.
  • Plusieurs URL pour une même page en raison de l’ordre des paramètres, ou des paramètres optionnels.

Blog : faut-il empêcher l’indexation des pages catégories et tags ?

Et bien je ne suis pas certaine de la réponse à la question et votre avis m’intéresse. Les articles peuvent se retrouver à leur adresse mais aussi sur la page d’accueil, sur les pages archives, sur les pages catégories et sur les pages tags. Si on n’utilise pas la balise « more » cela me semble évident : le contenu est effectivement entièrement dupliqué. Mais si les pages ne reprennent que le début des articles, est-il quand même préférable d’empêcher leur indexation ?

Je ne vois pas l’intérêt de référencer des pages archives dans tous les cas, leur titre reprenant une date. En revanche, il me semble que les pages contenant un mot clé en titre et regroupant tous les débuts d’articles peuvent facilement monter sur les pages de résultats des moteurs de recherche, et sont de plus des résultats intéressants.

Le fait de ne pas empêcher l’indexation des tags entraine une multiplication du nombre d’URL créé lorsqu’un nouvel article est publié : une URL pour l’article + une URL pour chaque nouveau tag. A ce propos, Webrankinfo indique qu’ « en générant plusieurs URL pour chaque contenu, vous demandez un surcroit de travail aux robots, si bien que vous risquez d’avoir certaines pages non crawlées (et donc non indexées) ou alors crawlées tardivement ». Mais il me semble que l’on peut y remédier

  • en incluant uniquement l’URL des articles dans le sitemap pour indiquer à Google que ce sont les pages importante.
  • en limitant le nombre de tags.

Et vous, avez-vous choisi de ne pas indexer vos pages catégories et tags ?


Articles liés
Publicité

Les commentaires sont fermés.