Nous essayons constamment d’améliorer nos blogs, afin que les moteurs de recherche référencent tout notre site / blog, mais il y a aussi certaines pages que nous ne souhaitons pas que ces moteurs puissent voir, et donc indexer. Que faisons-nous dans ces cas ? Pouvons nous maîtriser la façon dont les robots référencent nos pages ? A vrai dire, parfois oui, et parfois non. Voyons ensemble comment empêcher les robots d’accéder à des portions choisies d’un site, afin d’éviter à tout un chacun d’y accéder, et ce de manière efficace.
1. La mise sous clé
La première des protections, et sans aucun doute la plus efficace, est d’utiliser un login et un mot de passe. Vous allez sécuriser vos pages en bloquant l’accès. En laissant les pages, dossiers ou fichiers derrière cette protection vous sécurisez vos pages.
2. La Balise d’entête Nofollow
La seconde protection que je vous propose, consiste à utiliser la balise d’entête nofollow. Dans l’entête de toutes les pages dont vous ne souhaitez pas laisser libre accès aux robots, insérez la balise d’entête « nofollow » dans la partie comprise entre <HEAD> et </HEAD> de vos pages. Techniquement, les robots vont « ignorer » ces pages durant l’indexation de votre site.
Toutefois, cette méthode ne sera pas efficace si de nombreux liens externes pointent vers votre site, et que les robots arrivent à voir voir vos pages par de manière détournée, tout en ne les indexant pas immédiatement. D’autre part si vous avez un grand nombre de pages que vous souhaitez « cacher » aux robots, l’ajout de la balise d’en-tête nofollow peut entraîner d’autres complications au sein même de votre site.
3. Blocage des liens internes avec le tag Nofollow
La troisième et la plus simple des façons de bloquer les moteurs consiste à utiliser le tag « nofollow » sur les liens qui pointent vers ces pages . Le tag nofollow indiquera aux robots d’ignorer le contenu de la page, car la teneur en est inutile. Même si cela semble techniquement correct, les robots peuvent parfois voir « au travers » des balises nofollow.
À mon avis, l’ajout de balises nofollow aux liens pour bloquer les robots d’indexation, c’est comme si vous protégiez une chambre avec un mur en verre. Les robots d’indexation ne pourront pas entrer ou indexer, mais ils verront le contenu au travers des mûrs en verre, et ainsi ils auront une idée du contenu.
Voila. Trois méthodes efficaces (et inefficaces) d’empêcher les robots d’indexer certaines pages de votre site. Chacune d’entre elle fonctionne bien selon le cas, toutefois, dans certains circonstances, ils vous faudra user des trois méthodes pour barrer l’accès aux robots indexeurs et les empêcher de voir le contenu de vos pages. Vous connaissez d’autres méthodes ? Faites nous partager votre façon de faire.
Publié à l'origine le : 19 mars 2010 @ 22 h 58 min