vilto35 Posted July 19, 2013 Share Posted July 19, 2013 Bonjour, j'aimerais savoir comment configurer un fichier robot.txt à envoyer à la racine du site pour ne pas indexer : pages mon compte (se connecter, mot de passe perdu…) page panier page login pages information : mentions légales, CGV, droit de rétractation… page CGV page contact page commander lien envoyer à un ami llien vers le flux RSS Ce lien donne une technique chronophage par le remplacement de lignes de codes dans tout les fichier du site concerné. En commentaire un contributeur dit qu'il est beaucoup plus facile de le faire avec un fichier robot.txt. Savez vous ce qu'il faut y inscrire pour avoir une solution complète rapide et efficace? Merci d'avance pour ceux qui savent le faire Link to comment Share on other sites More sharing options...
Oron Posted July 23, 2013 Share Posted July 23, 2013 Bonjour Lisez ce topic auquel j'ai fait réponse. http://www.prestashop.com/forums/index.php?/topic/262458-beaucoup-de-pages-bloquees-par-le-robot-google/ Attention d'écrire robots.txt r o b o t s et pas robot.txt Vous pouvez créer automatiquement votre robots.txt avec prestashop et ajouter manuellement des pages à ne pas référencer. 1 Link to comment Share on other sites More sharing options...
DevNet Posted July 25, 2013 Share Posted July 25, 2013 Bonjour Lisez ce topic auquel j'ai fait réponse. http://www.prestasho...e-robot-google/ Attention d'écrire robots.txt r o b o t s et pas robot.txt Vous pouvez créer automatiquement votre robots.txt avec prestashop et ajouter manuellement des pages à ne pas référencer. Merci pour cette lecture Oron Link to comment Share on other sites More sharing options...
JF Référenceur Posted July 26, 2013 Share Posted July 26, 2013 Bonjour, Faites bien attention à ne pas écraser vos modifications sur robots.txt avec le générateur du backoffice! JF Link to comment Share on other sites More sharing options...
abardon Posted July 27, 2013 Share Posted July 27, 2013 Attention, le robots.txt interdit le crawl ! Pour interdire l'indexation, il faut mieux utiliser le meta robots noindex (surtout si ces URL sont déjà indexées) Link to comment Share on other sites More sharing options...
Recommended Posts