dandav55 Posted April 4, 2013 Share Posted April 4, 2013 Bonjour, Je cherche un module qui permettrait d'exclure des visites en provenance de Chine ou autres Je suis envahi par des crawl en provenance de certains pays Compatible version 1.4.7 + Merci pour votre aide Link to comment Share on other sites More sharing options...
Yoya Posted April 4, 2013 Share Posted April 4, 2013 Salut, Tu as essayé dans Préférences > Geolocalisation ? Cdlt Pierre Link to comment Share on other sites More sharing options...
dandav55 Posted April 4, 2013 Author Share Posted April 4, 2013 Bonjour, Je ne savais pas mais cela ne doit pas fonctionner pour les crawl, j'ai généré et décompressé le fichier geolitecity.dat Merci pour ce renseignement car je suis en train de le transférer mais c'est lourd 19 millions d'octets Je te tiendrai au courant Bonne soirée Link to comment Share on other sites More sharing options...
labelandco Posted April 4, 2013 Share Posted April 4, 2013 (edited) la formule la plus radical et de faire dans le htaccess un deni sur les ip Quelques exemple : • Bloquer l’accès à l’ip "172.16.35.45" : order allow,deny allow from all deny from 172.16.35.45 • Bloquer l’accès à la plage d’IP "10.25.35.0/24" (Toutes les IP commençant par 10.25.35) : order allow,deny allow from all deny from 10.25.35 • Bloquer l’accès à l’adresse IP "172.16.35.45" et à la plage d’IP "10.25.35.0/24" : order allow,deny allow from all deny from 172.16.35.45 deny from 10.25.35 • Pour bloquer le domaine "domaine.tld" order allow,deny allow from all deny from domaine.tld • Pour bloquer le domaine "domaine.tld" et le sous-domaine "spam.autre-domaine.tld" : order allow,deny allow from all deny from domaine.tld deny from spam.autre-domaine.tld • Et pour finir, il est bien sur possible de bloquer IP et domaine ensemble : order allow,deny allow from all deny from domaine.tld deny from 172.16.35.45 tous cela entrainera une erreur 503 pour le visiteur incongrus Edited April 4, 2013 by labelandco (see edit history) Link to comment Share on other sites More sharing options...
dandav55 Posted April 9, 2013 Author Share Posted April 9, 2013 Bonjour Labelandco, Merci pour votre réponse, J'utilise déjà dans le .htaccess le script deny from 172.16.35.45, c'est un exemple. Par contre je m'aperçois que les crawls proviennent de Googlebot et voilabot. Je ne comprends pas pourquoi ils ne passent pas par le robot.txt ? J'ai eu de sérieux problèmes de santé en Janvier et Février et je m'aperçois que le site me semble mort Peu de visiteurs réels et de commandes Je ne sais plus par ou commencer pour remettre cette affaire sur les rails, il est vrai que ma principale source de visiteurs venait de Google Shopping gratuit et je ne comprends pas la formule surtout en ce qui concerne les coûts. Un conseil serait le bienvenu. Merci et bonne fin de journée Link to comment Share on other sites More sharing options...
Recommended Posts