samsab Posted December 7, 2009 Share Posted December 7, 2009 Bonjour à tousje me pose la question métaphysique suivante...........le robots.txt permet aussi de ne pas référencer des choses pour des raisons de sécurité/confidentialité (par exemple le répertoire admin, sensible par nature)soitmais n'importe qui peut faire www.monsite.com/robots.txt et connaitre l'identité de ce que l'on veut cacher....comment empêcher l'accès direct à l'internaute de www.monsite.com/robots.txt?merci pour vos conseils.A+ Link to comment Share on other sites More sharing options...
junnecito Posted December 7, 2009 Share Posted December 7, 2009 Tres bonne question... Link to comment Share on other sites More sharing options...
ludo Posted December 7, 2009 Share Posted December 7, 2009 bonjour,C'est pas le fichier robots.txt qu'il faut protéger. Par définition on ne peut pas... puisqu'il doit rester librement accessible aux bots !En fait, vous devez protéger vos fichiers et répertoires confidentiels avec un mot de passe dans un fichier .htpasswdAu passage je vous rappel quelques regles pour les robots.txt* Un seul fichier robots.txt doit exister sur l'ensemble de votre site.* Le fichier robots.txt devra toujours être situé à la racine de votre site et être écrit en minuscules.* L'astérisque (*) n'est acceptée que dans le champ User-agent* Plusieurs sections User-agent peuvent être créées dans votre fichier robots.txt* Il n'existe pas de champs Allow.* Vous pouvez inclure avant chaque directives des lignes commençant par # pour vos commentaires.* Le fichier robots.txt ne doit pas contenir de lignes blanches. Link to comment Share on other sites More sharing options...
samsab Posted December 7, 2009 Author Share Posted December 7, 2009 merci pour ta réponse.pourrais tu me rappeler la commande (ht..........quelquechose) qui permet d'interdire de lister un répertoiredu genre www.monsite.com/repertoire --> me donne un message d'erreur ou d'interdiction.c'est quand même très antinomique ce robots.txt qui gère la confidentialité sur les moteurs tout en étant absolument pas confidentiel lui-même.........n'y a t il pas un réglage du serveur qui pourrai n'autoriser que des appels directs vers des pages php ou html, en interdisant tout appel direct vers notamment les .txt?A vous lireA+ Link to comment Share on other sites More sharing options...
ludo Posted December 7, 2009 Share Posted December 7, 2009 Si tu pouvais ca .. le robots pourrait pas y accéder lui-mêmeL'erreur vient du fait qu'on pourrait croire qu'un répertoire (et son contenu) serait mieux protéger s'il était plus discretEn théorie c'est vrai mais finalement c'est uniquement en protégeant le répertoire lui même que réside la véritable protection.Pour prendre une image : pour protéger ton appart, achète un chien plutôt que d'effacer le nom sur ta sonnette Link to comment Share on other sites More sharing options...
samsab Posted December 7, 2009 Author Share Posted December 7, 2009 avec un filtre dédié aux robots cela va de soi. Link to comment Share on other sites More sharing options...
samsab Posted December 7, 2009 Author Share Posted December 7, 2009 Pour prendre une image : pour protéger ton appart, achète un chien plutôt que d'effacer le nom sur ta sonnette en l'occurrence, quels chiens mets tu? Link to comment Share on other sites More sharing options...
Melki-Tsedeq Posted December 7, 2009 Share Posted December 7, 2009 Bonsoir la communauté.Voila une petite astuce que vous pouvez utiliser pour interdire un répertoire aux moteur de recherche avec robots.txt, sans citer complètement le nom du répertoire. Il suffit d'en citer que les premières lettres, pour autant qu'aucun autre fichier ou répertoire ne commence par ces lettres. Exemple: si votre répertoire s'appelle "/admin-dev", dans votre robots.txt, vous mettez: Disallow: /adminCela interdit toutes les URL qui commencent par "/admin" et personne ne sait que le répertoire réel s'appelle "/admin-dev".Et pour aller plus loin on peu faire un dossier /admin sur son serveur avec dedans un doberman dressé pour la guerre de Troie [Pour les petits malins]Cordialement.Melki-Tsedeq Link to comment Share on other sites More sharing options...
samsab Posted December 8, 2009 Author Share Posted December 8, 2009 très bonne astuce, merci j'en prends note.quid du chien? peut on savoir ce que vous faites pour augmenter le niveau de sécurité?A+ Link to comment Share on other sites More sharing options...
samsab Posted December 11, 2009 Author Share Posted December 11, 2009 Bonsoir la communauté.Voila une petite astuce que vous pouvez utiliser pour interdire un répertoire avec robots.txt, sans citer complètement le nom du répertoire. Il suffit d'en citer que les premières lettres, pour autant qu'aucun autre fichier ou répertoire ne commence par ces lettres. Exemple: si votre répertoire s'appelle "/admin-dev", dans votre robots.txt, vous mettez: Disallow: /adminCela interdit toutes les URL qui commencent par "/admin" et personne ne sait que le répertoire réel s'appelle "/admin-dev".Et pour aller plus loin on peu faire un dossier /admin sur son serveur avec dedans un doberman dressé pour la guerre de Troie [Pour les petits malins]Cordialement.Melki-Tsedeq salutes tu certain de la syntaxe et de la véracité de cecimon robots txt est ainsiUser-agent: *Disallow: /adminDisallow: /config/Disallow: /themes/Disallow: /tools/est pourtant mon rep admin_xxxxa été googlé...qui peut confirmer/infirmer?A+ Link to comment Share on other sites More sharing options...
Melki-Tsedeq Posted December 11, 2009 Share Posted December 11, 2009 Bonjour Samsab.Alors la bizarre le comportement de Google vous faite bien de remonter le sujet.A vue d’œil je dirais qu’il ne doit pas interpréter le trait d’union (touche 6) et l’underscore (touche 8) de la même façon.Et pour quoi il est allé vous googlé un répertoire qui apparait nulle part.Et avez-vous mis en place un fichier .htpasswd cité plus haut dans votre rep admin_xxxx. Cordialement.Melki-Tsedeq Link to comment Share on other sites More sharing options...
samsab Posted December 11, 2009 Author Share Posted December 11, 2009 hellorajouter un .htpasswd, n'est ce pas 2 fois devoir rentrer un login/mdp pour acceder au back office (1 fois pour passer le barrage du .htpasswd, et 1 fois pour rentrer dans le BO)?auquel cas dur, dur. Link to comment Share on other sites More sharing options...
Patric Posted December 11, 2009 Share Posted December 11, 2009 Le robots.txt n'est pas du tout fait pour la sécurité. Il n'interdit pas à un robot d'indexer tel ou tel dossier, mais il lui demande de ne pas le faire.Si le robot est têtu (comme sûrement tous les spambots et autre cochonneries du genre), rien ne l'empêchera de visiter tous les liens auxquels tout le monde peut accéder, qu'ils soient listés dans le robots.txt ou pas. Link to comment Share on other sites More sharing options...
Melki-Tsedeq Posted December 11, 2009 Share Posted December 11, 2009 Bonsoir Mr Patric Codron.Pouvez-vous signaler à vos collègues le petit bug que j’ai cité ici.Merci d’avance.Cordialement.Melki-Tsedeq Link to comment Share on other sites More sharing options...
Patric Posted December 11, 2009 Share Posted December 11, 2009 J'ai répondu dans le topic en question. Link to comment Share on other sites More sharing options...
Recommended Posts
Create an account or sign in to comment
You need to be a member in order to leave a comment
Create an account
Sign up for a new account in our community. It's easy!
Register a new accountSign in
Already have an account? Sign in here.
Sign In Now