Drupal utilise une méthode de blocage du moteur de recherche commun à tous les serveurs Web pour empêcher les moteurs de recherche à incorporer les pages Web qu'il sert dans une base de données de recherche. Ceci est communément utilisé pour les sites qui ne disposent pas de données accessibles au public , ou pour empêcher les moteurs de recherche de demander un trafic excessif sur un site Web . Instructions
1
Localisez le fichier " robots.txt " dans le dossier racine de votre site Drupal. Le dossier racine est également l'emplacement de votre page d'accueil, mais son emplacement sur le serveur Web varie selon le système d'exploitation que vous utilisez pour exécuter Drupal.
2
Créer un fichier vide nommé " robots. txt " dans votre dossier racine si elle n'existe pas déjà . Drupal la version 5 et plus tard créera un fichier robots.txt par défaut, mais vous pouvez également ajouter ce fichier si ce n'est pas déjà là.
3
Ouvrez le fichier robots.txt dans un . éditeur de texte
4
Remplacez le contenu du fichier robots.txt ce qui suit:
User-agent: *
Disallow: /
< p> Cela indique à tous les moteurs de recherche du Web pour ignorer tout le contenu . User agent signifie que le moteur de recherche , le "*" est un caractère générique , c'est à dire tout le monde . Le "/" désigne les racines , ou "top " de votre site. Par conséquent, en interdisant la racine, tous les contenus des pages du site - qui sont hiérarchiquement " inférieur" à la racine - seront ignorés
5
Enregistrez le fichier robots.txt . . Si votre serveur Web utilise un cache de pages Web, le réinitialiser afin que la nouvelle page est envoyée aux moteurs de recherche quand ils demandent la page robots.txt .