Bodyglove Posted May 5, 2010 Share Posted May 5, 2010 si accettano consigli ecco il mio robots la mia intenzione è quella di bloccare tutti gli spider tranne alcuni e bloccare alcure directory e file Secondo voi, chiedo a qualche esperto, il file è corretto scriverlo in questo modo:# blocco tutti gli spiderUser-agent: *Disallow: /# spider consentiti per tutto il sitoUser-agent: GooglebotDisallow:User-agent: SlurpDisallow:User-agent: msnbotDisallow:User-agent: FAST-WebCrawlerDisallow:User-agent: Lycos_SpiderDisallow:User-agent: Ia_archiverDisallow:User-agent: RobozillaDisallow:User-agent: SlurpDisallow:User-agent: TarantulaDisallow:# Directories da escludereDisallow: /classes/Disallow: /config/Disallow: /download/Disallow: /mails/Disallow: /modules/Disallow: /translations/Disallow: /tools/Disallow: /img/p/# Files da escudereDisallow: /addresses.phpDisallow: /address.phpDisallow: /authentication.phpDisallow: /cart.phpDisallow: /contact-form.phpDisallow: /discount.phpDisallow: /footer.phpDisallow: /get-file.phpDisallow: /header.phpDisallow: /history.phpDisallow: /identity.phpDisallow: /images.inc.phpDisallow: /init.phpDisallow: /my-account.phpDisallow: /order.phpDisallow: /order-slip.phpDisallow: /order-detail.phpDisallow: /order-follow.phpDisallow: /order-return.phpDisallow: /order-confirmation.phpDisallow: /pagination.phpDisallow: /password.phpDisallow: /pdf-invoice.phpDisallow: /pdf-order-return.phpDisallow: /pdf-order-slip.phpDisallow: /product-sort.phpDisallow: /search.phpDisallow: /statistics.phpDisallow: /zoom.phpSitemap: http://www.tuosito.it/sitemap.xml Link to comment Share on other sites More sharing options...
disarci Posted May 5, 2010 Share Posted May 5, 2010 1) non comprendo bene quello che hai in mente2) attenzione così disabiliti tutti, come in tutte le regole il disallow all deve stare DOPO quelli che abilitiguardati un attimo:http://www.seoconsultants.com/robots-text-file/in fondo ci sono anche link a forum o altri riferimenti Link to comment Share on other sites More sharing options...
Bodyglove Posted May 5, 2010 Author Share Posted May 5, 2010 1) non comprendo bene quello che hai in mente2) attenzione così disabiliti tutti, come in tutte le regole il disallow all deve stare DOPO quelli che abiliti grazie per la rispostami spiego io vorrei che effettuassero la scansione solo questi spider e leggessero tutto il sito:User-agent: GooglebotDisallow:User-agent: SlurpDisallow:User-agent: msnbotDisallow:User-agent: FAST-WebCrawlerDisallow:User-agent: Lycos_SpiderDisallow:User-agent: Ia_archiverDisallow:User-agent: RobozillaDisallow:User-agent: SlurpDisallow:User-agent: TarantulaDisallow:E bloccare tutti gli altri spider che scansionano il mio sito e ho aggiunto questo "alla fine come da te suggerito"User-agent: *Disallow: / il resto è per escudere dalla scansione directory e file che non mi interessa che vengano trovate Link to comment Share on other sites More sharing options...
Recommended Posts
Create an account or sign in to comment
You need to be a member in order to leave a comment
Create an account
Sign up for a new account in our community. It's easy!
Register a new accountSign in
Already have an account? Sign in here.
Sign In Now