Votre serveur Web PHP -alimenté répond à un utilisateur ou un moteur de recherche qui navigue sur votre site. Si vous avez créé un sous-domaine avec le duplicate content , il est préférable de bloquer les moteurs de recherche d'accéder à ces pages . Vous utilisez le fichier " robots.txt " pour bloquer les sous-domaines d'être analysé. Ce fichier est un fichier texte que vous pouvez créer et éditer avec Notepad . Il doit être placé dans le répertoire racine de votre serveur Web. Instructions
1
Cliquez sur le bouton "Démarrer " et tapez " notepad" dans la boîte de recherche . Appuyez sur "Entrée " pour lancer l'éditeur de texte Notepad . Ouvrez un nouveau document
2
Copiez et collez le code suivant dans le nouveau document: .
User-agent: * Disallow : /
3
Sauvegardez le fichier et assurez-vous que vous nommez " robots.txt " .
4
Ouvrez votre console du serveur ou du panneau de contrôle. Chaque fournisseur d'hébergement possède sa propre interface , afin de suivre la procédure habituelle pour vous connecter , puis accédez au dossier racine de votre sous-domaine.
5
télécharger le fichier robots.txt à la racine du sous-domaine sur votre serveur Web PHP. Les moteurs de recherche sont maintenant bloqués à partir de tous les répertoires et fichiers sur ce sous-domaine .