bins23 Posted April 7, 2011 Share Posted April 7, 2011 Bonjour à tous Je me permets de vous contacter pour un problème de duplicate content (enfin je crois)Nous sommes en version 1.2.4.0Nous avons à peu prés 1300 références publiées sur notre site et dans la requette site:www.vetements-vente.com google nous renvoit 14500 résultats il me semble que nous avons une dilution du page rank énorme Comment faire pour que google scanne que les bonnes pagesnous avons bien un module d'urls canoniques avec URL canonique v1.3et nous générons également un sitemap avec Google sitemap v1.4Notre site est vetements-vente.comD'avance merci Link to comment Share on other sites More sharing options...
labelandco Posted April 8, 2011 Share Posted April 8, 2011 Il faut dans ce cas que vous mettiez en place un fichier robots.txttant que vous y êtes il serait bien aussi de mettre un fichier sitemap.xml ;-)car celui que vous indiquez n'est absolument pas repéré. Link to comment Share on other sites More sharing options...
bins23 Posted April 8, 2011 Author Share Posted April 8, 2011 Il faut dans ce cas que vous mettiez en place un fichier robots.txttant que vous y êtes il serait bien aussi de mettre un fichier sitemap.xml ;-)car celui que vous indiquez n'est absolument pas repéré. qu'entendez vous par absolument pas repéré ? Link to comment Share on other sites More sharing options...
bins23 Posted April 8, 2011 Author Share Posted April 8, 2011 Si je comprends bien il faut que je saisisse les 10000 pages à la main que je ne veux pas qu'il scanne dans le fichier robot.txt ??? dans ce cas la j'ai pas fini !!tu ne connaitrais pas des commandes qui permetraient d'automatiser un minimum ? Link to comment Share on other sites More sharing options...
labelandco Posted April 8, 2011 Share Posted April 8, 2011 nnnooooooooooooooooonnn de 2 choses l'une si tu ne veux pas qu'il scanne tes 10.000 pages il n'est pas necessaire de les inscrire toutes.le plus simple et que tu les mettent dans un repertoire que tu appelera "pagesout" (c'est un exemple...) et dans le fichier robots.txt il te suffira de mettre : Disallow: /pagesout/ et ainsi les robots ne scanneront pas ce repertoire Link to comment Share on other sites More sharing options...
Recommended Posts