Fluorite Posted April 2, 2010 Share Posted April 2, 2010 Salutje viens de me rendre compte sur google ( outils Webmaster) qu'il me compte du duplicate content sur le Tri des produits (moins cher, plus cher par ordre alphabétique) /43-livres 43-livres?orderby=position&orderway=desc 43-livres?orderby=price&orderway=desc j'ai bien évidemment cherché sur le forum ,mais je n'ai rien trouvé. Quelqu'un a t'il déjà rencontré le même problème?bye Yannnick Link to comment Share on other sites More sharing options...
Hugo06 Posted April 2, 2010 Share Posted April 2, 2010 Dans Google Webmaster Tools : Configuration du site -> Paramètres -> Traitement des paramètresTu peux ajouter des paramètres à ignorer par Google comme :orderwayorderbypage_idcat_id...j'espère que ça peux t'aider Link to comment Share on other sites More sharing options...
Fluorite Posted April 2, 2010 Author Share Posted April 2, 2010 Salutmerci beaucoup Hugo06 ;-) j'espère que cela va résoudre le problème.bye Yannick Link to comment Share on other sites More sharing options...
Guest Roger-C Posted April 5, 2010 Share Posted April 5, 2010 Le mieux dans ce genre de cas en général serait de référence une page à la fois et ignorer les autres. C'est effectivement source de duplicate puisque c'est le même contenu avec plusieurs URLs. Link to comment Share on other sites More sharing options...
Fluorite Posted April 5, 2010 Author Share Posted April 5, 2010 BonsoirJe ne comprends pas refexpert ce que vous dites? Enfaite les pages se sont référencées toute seule avec google ou la sitemap. En regardant les logs c’est googlebotFaudrais t'il bloquer ces URL avec le robot.txt?Merci de m'éclaircirYannick Link to comment Share on other sites More sharing options...
Guest Roger-C Posted April 6, 2010 Share Posted April 6, 2010 il faudrait à mon avis dé-référencer la ou les pages en causes. C'est à dire supprimer la/les pages de l'index Google. C'est facilement faisable dans Google webmaster tools.Cordialement. Link to comment Share on other sites More sharing options...
Fluorite Posted April 6, 2010 Author Share Posted April 6, 2010 Salut merci pour vos informationsLes problèmes s'aggravent je pense ne pas être le seul avec ses problèmes bizarres !!! beaucoup trop de META description en double et Balises title en double à cause ?orderby=name&orderway=asc ?orderby=position&orderway=desc ?orderby=price&orderway=desc Si je supprime les Urls je pense que googlebot à un moment donné va me refaire la même chose?Il faudrait pas un petit bout de code afin d'avoir quelque chose de vraiment efficace mon site contient plus de 1000 liens si je dois tous les entrer en x par 4 le contenue dupliqué je ne suis pas sortie de l'auberge.Je vois pas trop comment je vais faire entrer plus de 4000 milles liens à supprimer dans google bonjours les dégâtsYannick Link to comment Share on other sites More sharing options...
Fluorite Posted April 13, 2010 Author Share Posted April 13, 2010 BonsoirJe reviens un petit peu à la charge. :-) J'ai toujours se problème avec des liens référencer x par 5 avec ?orderby=price&orderway=desc ?orderby=name&orderway=desc ?orderby=name&orderway=desc ?orderby=price&orderway=desc Google ne veut pas les supprimer puisque apparemment elles ne renvoient pas un 404 puisqu’elles existent.D'où pourrait venir le problème ? dans le fichier robots.txt j'ai bien les Disallow: /pagination.php Disallow: /product-sort.php dans le code sur la page catégorie on voit bien la structure des liens <!-- Sort products --> <form id="productsSortForm" action="http://www.site.fr/72-geode-d-agates"> -- le moins cher le plus cher de A à Z de Z à A produits en stock Tri </form> <!-- /Sort products --> Merci pour votre aideByeYannick Link to comment Share on other sites More sharing options...
Melki-Tsedeq Posted April 14, 2010 Share Posted April 14, 2010 Bonjour Yannick.Avez-vous testé cette technique Prestashop : Corriger le duplicate contentOu voir du coté de URL Canonique.Cordialement.Melki-Tsedeq Link to comment Share on other sites More sharing options...
Fluorite Posted April 14, 2010 Author Share Posted April 14, 2010 BonjourMerci Melki-Tsedeq. Avez-vous testé cette technique Prestashop ben non...Je viens de le contacter par Tel, malheureusement il n'était pas la. Alors je lui est envoyer un mail afin qu'il me résous le problème.Je n’ai pas dû me lever du bon pied ce matin :-S et te remercie pour le lien.Yannick Link to comment Share on other sites More sharing options...
Cédric Girard Posted April 14, 2010 Share Posted April 14, 2010 BonjourJe suis désolé, je suis sur Paris toute la semaine et donc très peu disponible (de manière exceptionnelle même si j'avoue qu'habituellement je suis relativement souvent injoignable au tél...)Concernant votre problème, la meilleure solution consiste en effet à mettre en oeuvre un certain nombre de choses parallèlement les unes aux autres de manière à limiter au maximum le DC :* détecter les pages avec paramètres d'URL* les placer en "noindex,follow"* préciser une URL canonique qui elle, ne tiendra pas compte des paramètres (à ce propos, le module URL canonique de la version 1.2.5 semble corrigé, car la première version n'était pas top...)On peut faire un certain nombre d'autres opérations comme contrôler les versions réécrites des URL en temps réel, en interdire les versions non réécrites, etc.Je répondrai à votre mail en soirée ;-)Bien cordialement,Cédric Link to comment Share on other sites More sharing options...
Fluorite Posted April 15, 2010 Author Share Posted April 15, 2010 BonjourMerci CédricJ'attends ;-) byeYannick Link to comment Share on other sites More sharing options...
Fluorite Posted April 16, 2010 Author Share Posted April 16, 2010 Je passe le post en résolu, car apparemment mon problème est résolu.Après avoir fait moi même quelques rectifications et avec l'aide de se post, mes liens en duplicate content sont passé d'une centaine à 7 vers 3heures du matin. ( En + de deux semaines )Les modifications que j'ai faites c'est d'avoir d'abord suivie les conseils de Hugo06, mais j'avais déjà fait les modifications sur le module canonial URL et j’ai donc adapté cette méthode la, qui s'avère efficace pour ceux qui serait en 1.2.5 avec le même problème.http://www.prestashop.com/forums/viewthread/26578/general_discussion/canonical_url_incorrectbyeYannick Link to comment Share on other sites More sharing options...
labelandco Posted April 16, 2010 Share Posted April 16, 2010 de touyte manière il y a un élèment essentiel a prendre en compte....ce n'est pas parce que l'on fait une modification important que les moteurs de recherche les modifieront insinné (tout de suite).il y a quand même un peu d'attente a avoircela étant bien heureux que ton problème soit résolus Link to comment Share on other sites More sharing options...
Fluorite Posted April 16, 2010 Author Share Posted April 16, 2010 Bonsoir labelandco merci beaucoupYannick Link to comment Share on other sites More sharing options...
affairemax Posted April 17, 2010 Share Posted April 17, 2010 Super post, intéressant.J'ai moi même un soucie similaire avec mes balise meta et title en double car google me compte celle de la page produit mais aussi celle de l'envoie à un ami.Pour chaque produit il me rajoute l'url: /modules/sendtoafriend/sendtoafriend-form.php?id_product=XXJ'ai tout simplement modifié mon fichier robot en ajoutant la ligne Disallow: /modules/Vous pensez que sa réglera le problème? Link to comment Share on other sites More sharing options...
Fluorite Posted April 18, 2010 Author Share Posted April 18, 2010 BonsoirRajoute simplement cte ligne Disallow: /modules/sendtoafriend/sendtoafriend-form.php Bye yannick Link to comment Share on other sites More sharing options...
eddy45 Posted April 18, 2010 Share Posted April 18, 2010 Salut tous le monde !bon, depuis le 24 mars j'ai remarqué une baisse de visite sur le site assez importante .Mon 1er Réflexe à biensur été de vérifier mon indexation de mots clefs et je me suis appercu de cette manière que google à trouvé tout autant de duplicat que vous et pour les meme raison .En l'absence de post sur le forum , j'ai pris comme action de tout traiter à la main , ligne par ligne ... des redirections 301 pour les produits et dans le robot text des disallow pour les pages concernées par des paramètres .Chaque jour je surveille google parce que chaque jours il en trouve de nouvelle et encore je bloque les pages .A ce jour j'ai supprimé pas loin de 600 pages dans google ... toute les une apres les autres , jour apres jour ... C'est long mais efficace !!! Je vais tout de mme tester vos methodes , mais le fait de mettre ceci dans le robot.txt permet aussi de donner les instructions aux autres moteurs de recherche .Enfin si toute fois quelqu'un à un code miracle , qu'il se fasse connaitre Link to comment Share on other sites More sharing options...
Fluorite Posted April 19, 2010 Author Share Posted April 19, 2010 SalutPour ceux qui aurais du mal à comprendre, il faut tous simplement descendre les includes des fichiers suivant.product.php et catégorie.php ou la variable $ rewrited_url ne ce trouvais pas forcement au bon endroit dans le code source de vos pages.premièrement sur le fichier categorie.php ligne 13 ou 14 mettez en commentaire include(dirname(__FILE__).'/header.php'); include(dirname(__FILE__).'/product-sort.php'); Ce qui donne // include(dirname(__FILE__).'/header.php'); // include(dirname(__FILE__).'/product-sort.php'); descendé ensuite vers la ligne 72 et mettez ces deux même lignes que vous avez mis plus haut en commentaire include(dirname(__FILE__).'/header.php'); include(dirname(__FILE__).'/product-sort.php'); Avant le code $smarty->assign(array( 'allow_oosp' => intval(Configuration::get('PS_ORDER_OUT_OF_STOCK')), 'suppliers' => Supplier::getSuppliers(), 'errors' => $errors)); Ensuite sur le fichier product.phpcherché la ligne include_once(dirname(__FILE__).'/header.php'); la mettre en commentaire, ce qui donne // include_once(dirname(__FILE__).'/header.php'); Remettre cette même ligne sur la ligne 300 ou 301 include_once(dirname(__FILE__).'/header.php'); Avant le code $smarty->assign(array( 'ENT_NOQUOTES' => ENT_NOQUOTES, 'outOfStockAllowed' => intval(Configuration::get('PS_ORDER_OUT_OF_STOCK')), 'errors' => $errors, 'categories' => Category::getHomeCategories(intval($cookie->id_lang)), 'have_image' => Product::getCover(intval(Tools::getValue('id_product'))), 'display_qties' => intval(Configuration::get('PS_DISPLAY_QTIES')), 'display_ht' => !Tax::excludeTaxeOption())); Ensuite sur le fichier canonicalurl.php qui ce trouve dans le dossier modules et le dossier canonicalurlchercher cette ligne de code ligne 68 ou 69 $smarty->assign('canonical_url', $protocol.$canonicalUrl.$rewrited_url); et la mettre en commentaire . ligne avant le else // $smarty->assign('canonical_url', $protocol.$canonicalUrl.$rewrited_url); C'est fini ;-) Attention avant de faire les modifications!!! faite une copie de vos fichier je ne serais être tenue responsable en cas d'erreur de votre partYannick Link to comment Share on other sites More sharing options...
affairemax Posted April 20, 2010 Share Posted April 20, 2010 Ok super réponse détaillée, donc en appliquant ton hack on peut se défaire des balises en doublons dans webmaster tools?J'ai aussi vu que les url style "/search.php?tag=XXX" ramène des doublons dans google, ta solution élimine cela aussi?Merci pour ton aide en tous cas. Link to comment Share on other sites More sharing options...
Fluorite Posted April 20, 2010 Author Share Posted April 20, 2010 SalutEffectivement, mais cela ne s'applique que pour les attribues des tris sur les produits "plus cher", "moins cher", de "A à Z" etc., etc.Pour les tags je ne me suis pas pencher dessus, puisque je ne les utilise pas. ?orderby=name&orderway=asc ?orderby=position&orderway=desc ?orderby=price&orderway=desc voilaYannick Link to comment Share on other sites More sharing options...
Fluorite Posted April 20, 2010 Author Share Posted April 20, 2010 ReAu faite ton fichier search.php devrait être bloquer avec le fichier robots.txt tu n'auras bien évidement plus se problème logiquement, car je n'ai pas ce problème puisque bloquer dans le robots.txt.Yannick Link to comment Share on other sites More sharing options...
affairemax Posted April 21, 2010 Share Posted April 21, 2010 Merci Yannick, j'ai donc rajouté la ligne à mon fichier robots.txt Disallow: /search.php J'attend de voir la réaction de google.A+ Link to comment Share on other sites More sharing options...
Sam59 Posted April 21, 2010 Share Posted April 21, 2010 Dans Google Webmaster Tools : Configuration du site -> Paramètres -> Traitement des paramètresTu peux ajouter des paramètres à ignorer par Google comme :orderwayorderbypage_idcat_id...j'espère que ça peux t'aider HelloJ'ai fait cette modif dans les paramètres de google mais ça ne semble pas avoir d'effet.Question con, mais c'est bien "ignorer" qu'il faut appliquer à ces pages ?La prise en compte par Google est très longue peut-être ? Link to comment Share on other sites More sharing options...
eddy45 Posted April 22, 2010 Share Posted April 22, 2010 les paramettres ne sont pas identique sur toute les boutiques en fonction de la configuration . Normalement juste en dessous tu dois avoir "paramettre trouvés" un truc dans le genre, tu regarde ce que t'as trouver google et tu l'applique ... de toute facon , ca n'as pas d'effet immediat et je ne suis mme pas sur que ce soit fiable à 100% D'ailleur Google l'explique tres bien dans son "aide" Link to comment Share on other sites More sharing options...
eddy45 Posted April 22, 2010 Share Posted April 22, 2010 je n'y comprends plus rien !!! le caninocal fonctionnais tres bien hier ... Ce matin je test , je me retrouve en ligne canicocal avec : http:www.monsite.comhttp:www.monsite.com/xx_macategorie....je fait le modifs indiquée, ca ne fonctionne pas .je supprime les lignes et recharge le tout idem tjs meme probleme .je decide de supprimer d'autres modifs que j'avais fait (donc me retrouve en config d'origine) , je recharge tjs mme probleme .Je remet mes modifs, sans refaire les modifs indiquées, donc en l'etat avant de regarder ce matin ( je rappel que ce matin ca delirais ) et là , plus de probleme alors que je me retrouve dans la mme config que si je n'avais rien toucher ce matin ... ???? Link to comment Share on other sites More sharing options...
Sam59 Posted April 22, 2010 Share Posted April 22, 2010 les paramettres ne sont pas identique sur toute les boutiques en fonction de la configuration . Normalement juste en dessous tu dois avoir "paramettre trouvés" un truc dans le genre, tu regarde ce que t'as trouver google et tu l'applique ... de toute facon , ca n'as pas d'effet immediat et je ne suis mme pas sur que ce soit fiable à 100% D'ailleur Google l'explique tres bien dans son "aide" Je n'arrive toutefois pas à comprendre, avec l'aide de Google, si pour chaque paramètre "orderby" et "orderway", je dois choisir "prendre en compte" ou "ignorer"... Link to comment Share on other sites More sharing options...
eddy45 Posted April 22, 2010 Share Posted April 22, 2010 ben il faut demander a google d'ignorer ces paramettres mais si j'etait toi je prendrais la peine de lire les explications de google lui mme Link to comment Share on other sites More sharing options...
Sam59 Posted April 22, 2010 Share Posted April 22, 2010 MerciMais justement, c'est l'aide de Google qui n'est pas claire à mes yeux : Google propose une suggestion et demande un choix. Faut-il ignorer la suggestion (et du coup, prendre en compte le paramètre) ou ignorer le paramètre (et du coup, ignorer la suggestion)....Bref, je me doutais un peu que la bonne sélection était "ignorer", mais la lecture de l'aide google m'a induit en erreur.Merci ! Link to comment Share on other sites More sharing options...
affairemax Posted May 4, 2010 Share Posted May 4, 2010 Bonjour, après avoir bien suivi ce topic j'ai réduit mes balises en doubles mais il m'en reste encore 14, Voir image ci dessous.J'ai bien mis les paramètres "orderby et orderway" sur ignorer mais cela me fait encore des doublons, pareil pour le paramètre "p".Que faire de plus pour éviter ces balises en doubles?Merci d'avance. Link to comment Share on other sites More sharing options...
eddy45 Posted May 4, 2010 Share Posted May 4, 2010 T'inquiete pas , google en se mettant a jour, il va encore en rajouter ... Si tu as vraiment corriger le probleme , petit a petit ca va diminuer ... et pour les pages non concernées par ce code bloque les par rabot.txt Link to comment Share on other sites More sharing options...
merchal59 Posted August 13, 2010 Share Posted August 13, 2010 BonsoirPour ma part j'ai exactement le même problème !!J'utilise la redirection url + un module pour forcer également mais pour ces liens orderway, orderby... rien à faire !!(+ bien sûr les paramètres de google)Pourriez vous m'aider ?Merci Link to comment Share on other sites More sharing options...
LeGastronome Posted August 23, 2010 Share Posted August 23, 2010 Bonjour,Je me suis penché sur mon référencement, et effectivement j'avais le même souci que vous..j'ai ajouté les parameter dans google et ajouter lang-fr au fichier robotje vous tient au courant Link to comment Share on other sites More sharing options...
cactusman2 Posted August 23, 2010 Share Posted August 23, 2010 Une solution très simple qui marche parfaitement:http://www.presto-changeo.com/content/6-prestashopseotips Link to comment Share on other sites More sharing options...
LeGastronome Posted August 23, 2010 Share Posted August 23, 2010 You can change that by adding the sort order and page number into the Meta Tag information, which will make each page unique.Oui mais il faut pas uniquement modifier le meta !Ca change rien au duplicate content ? Link to comment Share on other sites More sharing options...
cactusman2 Posted August 23, 2010 Share Posted August 23, 2010 Cette solution ne change pas uniquement les metas mais aussi les titres.Ensuite les produits apparaissent dans un ordre différent dans chaque cas donc on ne peux pas parler veritablement de contenu duplique.De plus le duplicate content interne a un site (hors titres et metas) est plus une legende qu'autre chose. Si Google considere que deux pages d'un meme site avec des titres et des metas differents ont des contenus similaires il va simplement choisir une des deux. Le site ne sera pas panalise pour autant. Cela a meme ete precise il n'y a pas si lontemps sur le blog de Google. Link to comment Share on other sites More sharing options...
LeGastronome Posted August 23, 2010 Share Posted August 23, 2010 Donc le duplicate pour un même site.. (comme je m'en suis douté) ne sont véritablement pénalisant ? Link to comment Share on other sites More sharing options...
cactusman2 Posted August 23, 2010 Share Posted August 23, 2010 C'est un débat sans fin. Mon opinion est qu'il faut absolument eviter d'avoir 2 pages avec les memes titres ou metas.Pour le reste mystere et on trouve beaucoup d'infos contradictoires. Link to comment Share on other sites More sharing options...
LeGastronome Posted September 2, 2010 Share Posted September 2, 2010 Bon effectivement cela à baissé considérablement : de 179 à 19il reste quelques modifs à effectuer Link to comment Share on other sites More sharing options...
Cédric Girard Posted September 3, 2010 Share Posted September 3, 2010 Donc le duplicate pour un même site.. (comme je m'en suis douté) ne sont véritablement pénalisant ? Pour ma part je ne parlerais pas de "pénalisation" stricto sensus mais d'un critère entrant en compte dans la notation des pages et leur positionnement.META dupliquées (en tout ou partie) = moins bonne placeContenu dupliqué = moins bonne place (de manière beaucoup plus marquée apparemment)Google s'est toujours défendu de pénaliser les sites sur le duplicate content mais en pratique le constat est quand même nettement en faveur d'une pénalité réelle. Si les annuairistes demandent des descriptions uniques depuis quelques temps, ce n'est pas par hasard (je connais certains webmasters qui ont perdu jusqu'à 90% de leur trafic suite à la MAJ de l'algo Google appelée "Mayday"... Trafic progressivement retrouvé après éradication du DC) Link to comment Share on other sites More sharing options...
Psychodays Posted September 6, 2010 Share Posted September 6, 2010 si j'ai 1 pages catégorie, et 2 autres qui sont des tris de la même page donc risque de duplicate , la page principale sera-t-elle pénalisée? les 2 autres sont qui sont des variantes de la première seront pénalisée mais pas première.Mais comme ces 3 pages parlent de la même chose, je ne pense pas qu'il y ait un problème. Link to comment Share on other sites More sharing options...
Cédric Girard Posted September 6, 2010 Share Posted September 6, 2010 Même s'il n'y a pas pénalisation, il y a "aberration" d'avoir trois pages ayant le même contenu (fut-il ordonné de manière différente) et qui donc se font "concurrence".Et ne pas espérer classer ces trois pages dans Google dans ces conditions Il y a TOUT à gagner à maîtriser finement la notion de duplicate content. Link to comment Share on other sites More sharing options...
Psychodays Posted September 6, 2010 Share Posted September 6, 2010 tu as tout a fait raison et il faut maitriser au maximum, je disais cela pour mon cas personnel, le temps me manque et j'essais d'optimiser mon temps. C'est pour moi un compromis, mais après tout le monde fait ce qu'il veut. Link to comment Share on other sites More sharing options...
ALLNews Posted October 24, 2010 Share Posted October 24, 2010 De mon côté j'observe exactement le même problème pour l'ajout d'une nouvelle catégorie alors que j'avais précédemment bien dit à Webmaster tools d'ignorer tous ces paramètres... 2 mois plus tard, ça n'a pas l'air d'être pris en compte :http://www.google.fr/webhp?hl=fr#sclient=psy&hl=fr&site=webhp&q=site:www.bracelets-homme.com/8-power-balance&aq=f&aqi;=&aql;=&oq;=&gs;_rfai=&pbx=1&fp=d4d0819aa0bd6296Si Google indexe toutes ces pages, c'est qu'il rencontre des liens "a href" avec toutes les combinaisons de chaque paramètre ? Pourquoi ne pas ajouter l'attribut rel à "noindex ou noffolow" ?Concernant les liens de Tri, on retrouve dans le fichier product-sort.tpl le code javascript onchange="document.location.href = $(this).val();" avec les valeurs : -- Comment rajouter l'attribut rel=nofollow dans ce code javascript ? En dur, à la fin de l'URL dans le value= ?Quant aux nombres de produits par page (paramètre n), c'est dans le fichier pagination.tpl que ça se passe, il y a plusieurs "a href" mais il faudrait laisser le dofollow sur les liens vers les pages2, pages3 ... et ajouter le nofollow sur les liens avec le paramètre n (pour les catégories qui n'ont qu'une seule page) de produits ?De plus, il y a le même problème avec le module d'url canonique, puisque dans la page de ma catégorie dont l'URL de base est :http://www.bracelets-homme.com/8-power-balanceil y a : <link rel="canonical" href="http://www.bracelets-homme.com/8-power-balance?n=20&orderby=quantity&orderway=desc&id_category=8" /> Qu'en pensez-vous ?Merci. Link to comment Share on other sites More sharing options...
Guest Roger-C Posted October 29, 2010 Share Posted October 29, 2010 Bonsoir,je suis généralement d'avis avec Cédric Girard. Il faut à tout prix éviter le duplicate. Et puis à quoi ça sert d'avoir plusieurs page presque identiques référencées dans les moteurs de recherche ?? Même s'il éxistent des solutions pour changer les titres, là n'est pas la question. Votre catalogue à 400 produits, et bien ce serait anormal de se retrouver avec 2000 urls....La logique voudrait que en dehors des pages produits, vous ayez en plus les pages catégories. C'est cela le contenu du site et rien d'autre. Se retrouver avec des pages supplémentaires avec :orderby=name&orderway=ascorderby=position&orderway=descorderby=price&orderway=descorderby=quantity&orderway=descest néfaste pour le positionnement de votre boutique.Il faut absolument mettre en place une solution pour éviter de référencer ces pages. En plus d'éviter du duplicate (car quoi qu'on en dise, le risque existe), on a un fichier sitemap moins important ce qui n'est pas rien.Pourquoi pas penser à configurer le fichier Robots.txt pour que les robots ne suivent pas ces liens avec un "Disallow". J'attends vos avis dans ce sens.Cordialement. Link to comment Share on other sites More sharing options...
merchal59 Posted October 29, 2010 Share Posted October 29, 2010 Pour ma part le problème est (je pense) résolu en grande partie résolu.Le plus gros du problème résidait dans le fait que google indexait automatiquement le produit dans l'accueil et dans la catégorie choisie, maintenant, je ne vois plus ça donc parfait.Merci. Link to comment Share on other sites More sharing options...
Guest Roger-C Posted October 29, 2010 Share Posted October 29, 2010 Pour ma part le problème est (je pense) résolu en grande partie résolu.Le plus gros du problème résidait dans le fait que google indexait automatiquement le produit dans l'accueil et dans la catégorie choisie, maintenant, je ne vois plus ça donc parfait.Merci. Avez vous dans Google Webmaster Tools les "pages avec des balises en double"? A mon avis c'est ce paramètre qu'il faut surveiller. Link to comment Share on other sites More sharing options...
phoneaccessoire Posted October 30, 2010 Share Posted October 30, 2010 Bonjour,C'est un peu le fouillis dans ce topic....Je n'arrive plus a trouver la bonne solution....Que faut-il exactement faire????En gros dans les paramètres google est-il nécessaire de "laisser google decider" ou d'"ignorer" pour-orderway-orderbyPeut-on les "ignorer" ou dot-on absolument "laisser google decider"??? N' y a t'il aucune conséquence????Que fait-on de :-n-PDoit-on les ignorer aussi ???J'ai moi même 423 duplicate est-ce que google penalise vraiment ou pas?? Link to comment Share on other sites More sharing options...
Guest Roger-C Posted October 30, 2010 Share Posted October 30, 2010 Bonjour, vous n'avez 400 duplicate ? Ce n'est rien par rapport à certains qui en ont 4 X le nombre de "pages produits". Je vous laisse donc imaginer les dagats !Il est clair qu'il ne faut pas laisser Google décider. Je dis juste qu'il faut surveiller une donnée essentielle que Google vous fournit gratuitement. Si vous estimez que l problème est réglé et Google vous dit le contraire c'est votre problème persiste. Je suis en train de discuter avec un développeur anglophone sur ce forum : http://www.prestashop.com/forums/viewthread/74380/#323897 pour trouver la meilleure solution pour empêcher aux moteurs de recherche d'indexer toutes les pages avec les paramètres de tri :- prices-drop.php – new-products.php – best-sales.php – category.php – search.phpSois patient, je pense qu'il est ressortira quelque chose de cette discussion. Promis ! Link to comment Share on other sites More sharing options...
phoneaccessoire Posted October 30, 2010 Share Posted October 30, 2010 Bonjour, vous n'avez 400 duplicate ? Ce n'est rien par rapport à certains qui en ont 4 X le nombre de "pages produits". Je vous laisse donc imaginer les dagats !Il est clair qu'il ne faut pas laisser Google décider. Je dis juste qu'il faut surveiller une donnée essentielle que Google vous fournit gratuitement. Si vous estimez que l problème est réglé et Google vous dit le contraire c'est votre problème persiste. Je suis en train de discuter avec un développeur anglophone sur ce forum : http://www.prestashop.com/forums/viewthread/74380/#323897 pour trouver la meilleure solution pour empêcher aux moteurs de recherche d'indexer toutes les pages avec les paramètres de tri :- prices-drop.php – new-products.php – best-sales.php – category.php – search.phpSois patient, je pense qu'il est ressortira quelque chose de cette discussion. Promis ! Merci pour la réponse, j'ai lu le post que vous échangez avec Tomer de presto-changeo, et le SEO FIX qui'il a donné http://www.prestashop.com/forums/viewthread/74380/#323897Je suis également ce post de prés.Dailleurs je l'ai appliqué ainsi que d'autres TIPS qu'il donne sur son site http://www.presto-changeo.com/Grace a lui j'ai pu supprimer la moitié de mes duplicates déjà mais je me demander seulement si google pénalisait vraiment et si je devais ignorer-orderby-orderway-p-nCar dans mes paramètres webmaster tools j'ai tous laisser google décider. Link to comment Share on other sites More sharing options...
Guest Roger-C Posted October 30, 2010 Share Posted October 30, 2010 Le duplicate est pénalisé sur l'ensemble du site. Si vous avez 200 pages de contenu "utile et unique" et que vous demandez à Google d'indexer 800 urls et qu'il se rende compte que 75% de ces Urls ont le même contenu, vous êtes forcément pénalisé. Vous ne vous rendez pas compte sur le moment, mais faîtes le ménage et vous verrez que les visiteurs reviennent plus nombreux. C'est une certitude.Le pire avec ces variables c'est que vous-vous retrouvez avec des centaines de pages avec :- le même titre;- la même description;- et presque le même contenu; excepté que l'ordre change.Google ne décide de rien. afin presque. Parfois, même si vous lui dites de pas indexer telle ou telle page, il le fait quand même. Finalement c'est tout un travail à faire. Et il n'y a pas que google. yahoo est pire encore. C'est mon avis en tout cas.Cordialement. Link to comment Share on other sites More sharing options...
phoneaccessoire Posted October 30, 2010 Share Posted October 30, 2010 Le duplicate est pénalisé sur l'ensemble du site. Si vous avez 200 pages de contenu "utile et unique" et que vous demandez à Google d'indexer 800 urls et qu'il se rende compte que 75% de ces Urls ont le même contenu, vous êtes forcément pénalisé. Vous ne vous rendez pas compte sur le moment, mais faîtes le ménage et vous verrez que les visiteurs reviennent plus nombreux. C'est une certitude.Le pire avec ces variables c'est que vous-vous retrouvez avec des centaines de pages avec :- le même titre;- la même description;- et presque le même contenu; excepté que l'ordre change.Google ne décide de rien. afin presque. Parfois, même si vous lui dites de pas indexer telle ou telle page, il le fait quand même. Finalement c'est tout un travail à faire. Et il n'y a pas que google. yahoo est pire encore. C'est mon avis en tout cas.Cordialement. Ok merci donc je pense que pour le moment je dois attendre des améliorations du SEO FIX de TOMER car déjà le SEO FIX de tomer m'a supprimer la moitié de mes duplicates c'est déjà trés bien grace a lui.mais je viens de traduire il y a une semaine le site en 8 langues avec le modules de Tomer donc mon sitemap a multiplier les pages par 8.je crains le pire lorsque google va commencer à les indexé malgrés que j'ai appliquer ses astuces pour fixer le duplicate multi language.Par ailleurs je vois que tu t'y connais un peu.As tu une solution à ce problème de balise title mal prise en compte par google sur ma page d'index.Voir http://www.prestashop.com/forums/viewthread/75853/referencement/conseil_referencement_2eme_etapeMerci pour tout en tous cas. Link to comment Share on other sites More sharing options...
LeGastronome Posted November 17, 2010 Share Posted November 17, 2010 ca me prends aussi le choux cette histoire de duplicate meta etc...en plus google se fout du paramètre ignore...le mieux serait de lui dire en dur ou un truc comme ça !Dans le fichier Robot, ajouter les liens un par un ? Link to comment Share on other sites More sharing options...
LeGastronome Posted November 17, 2010 Share Posted November 17, 2010 Bon, moi je vais mettre ça en place :Lien classique vers un autre site en HTML 4: Texte présentant un lien vers le site Lien avec attribut nofollow Texte présentant un lien vers le site Link to comment Share on other sites More sharing options...
oli004 Posted February 17, 2011 Share Posted February 17, 2011 Je remonte ce sujet uniquement pour donner une éventuelle solution que j'ai mis en place.En revanche, elle n'ai pas vraiment adaptée aux grosses boutiques ayant de nombreux produits dans chaque catégorie.Donc, pour éviter le duplicate qui apparaissait dans le webmaster tools de google, ma boutique le permettant car peu de produits, j'ai tout simplement vidé product-sort.tpl et pagination.tpl.Bien entendu il s'agit là d'une solution radicale, mais que le faible nombre de produits me permet de faire. Link to comment Share on other sites More sharing options...
LeGastronome Posted February 17, 2011 Share Posted February 17, 2011 oui forcément, mais c'est pas très joli comme pratique Link to comment Share on other sites More sharing options...
Olivier from Madinina Posted February 23, 2011 Share Posted February 23, 2011 Un petit hack (un include dans le settings.inc.php, par exemple) qui détermine si le user-agent est un robot et qu'une des variables get est orderby ou orderway. Si les 2 conditions sont remplies -> on fait une 301 vers la page sans le orderby et sans le orderway ...On peut aussi en profiter pour traiter les variables exotiques (qui semblent venir du module stat) du genre "&%3..." Link to comment Share on other sites More sharing options...
Recommended Posts