Sébastien François Posted September 20, 2010 Share Posted September 20, 2010 Bonjour à tous ! Suite à un problème de duplicate content avec les tris, j'ai mis en place un test dans le header qui pose la balise "noindex" lorsque l'on repère des variable de tri (orderby, n, p, etc.)Les pages passent bien en "noindex", pas de problème. J'ai ensuite "lavéé mon site en déclarant à google toutes les pages à enlever ce qu'il a fait sans broncher. Mais après quelques jours, de nouvelles pages sont apparues, nouvelles pages qui sont bien en "noindex". Est-ce que certains d'entre vous ont déjà eu ce phénomène (page en noindex ajoutées par google) ? Si oui, comment l'avez-vous résolu ? Merci beaucoup ! Link to comment Share on other sites More sharing options...
misty Posted September 20, 2010 Share Posted September 20, 2010 Bonjour,Certaines pages vont mettre des mois à être définitivement supprimées.Concernant Google le mieux que tu puisses faire c'est probablement de lui dire de ne pas tenir compte des paramètres des tris etc...Dans tes outils google pour webmaster il faut aller au menu "Configuration du site" / "Paramètres" puis à la rubrique "Traitement des paramètres" tu cliques sur "Adapter la configuration des paramètres »".A ce moment là il t'affiche les paramètres qu'il a trouvés, tu mets ce que tu souhaites en "Ignorer" puis tu enregistres et normalement le tour est joué En espérant que ça t'aidera. Link to comment Share on other sites More sharing options...
Sébastien François Posted September 20, 2010 Author Share Posted September 20, 2010 Merci de cette réponse. En fait, j'ai déjà fait retiré les pages que je voulais retirer. Le problème est qu'elle réapparaissent. Donc je ne pense pas que ce soit une question de temps... Link to comment Share on other sites More sharing options...
misty Posted September 20, 2010 Share Posted September 20, 2010 Si tu as utilisé la demande de retrait de Google, ça ne m'étonne pas, au bout de quelques mois elles réapparaissent si les URLs sont toujours sur le site.En effet, cette fonction est un retrait d'urgence temporaire, elle sert uniquement pour des pages qui portent un grave préjudice comme par exemple des informations confidentielles qui seraient exposées par erreur ; cette fonction ne doit pas être utilisée pour d'autres cas. Par exemple dans ton cas ça ne fonctionne pas ou pas bien car dans mon souvenir il faut s'assurer que les pages que l'on veut retirer renvoient définitivement une erreur 404 ou équivalent.Le plus efficace dans Google pour se débarrasser de pages existantes et qui ne sont pas destinées à disparaitre du site web c'est de les mettre en noindex ; mais pour qu'il les enlève encore faut il qu'il repasse dessus et selon l'importance des pages il peut mettre longtemps, notamment s'il juge qu'elles sont du duplicate content (ce qui est le cas pour les fonctions de tri) et/ou qu'elles ne sont pas dans son index principal mais dans son index secondaire.Si tu veux voir un aperçu des URLs qui sont dans l'index principal de Google il te suffit de chercher ça sur Google :site:www.kyototradition.com/&Mais bon tout ceci devrait en principe être un peu atténué grâce au nouveau moteur de Google qui a été mis en place récemment, il est sensé indexer beaucoup plus vite qu'avant et devrait normalement réduire l'écart de traitement entre les index principal et secondaire... Link to comment Share on other sites More sharing options...
Sébastien François Posted September 21, 2010 Author Share Posted September 21, 2010 Merci pour cette réponse !J'ai très peu de page dans l'indexe principal de google donc ça risque de prendre du temps. Je vais donc travailler mes backlinks pour augmenter le crawl de google et attendre. Link to comment Share on other sites More sharing options...
art-euro.eu Posted September 22, 2010 Share Posted September 22, 2010 Pour éliminer des pages, il faut aussi les declarer dand le fichier robot.txtDisallow: ************** :ohh: Link to comment Share on other sites More sharing options...
Recommended Posts