Enfin, le bot va regarder les liens contenus dans la page et va
les enregistrer pour après les suivre un par un. Il devra donc
recommencer ces étapes pour la nouvelle page.
Cette façon de référencer le web peut paraître correcte cependant
quelques problèmes vont faire leur apparition.
B. Quelques inconvénients majeurs
Lorsque le web commençait son ascension, ce référencement des
moteurs de recherche convenait. Toutefois, les dizaines de milliers de
pages référencées à la base se sont vite multipliées pour devenir des
millions. Comment différencier des sites traitant d’un même sujet ? On va
donc principalement se baser sur les mots clés, le contenu du site ainsi
que sur sa taille.
Les webmaster ont également à leur disposition des balises à mettre
dans leur code qui sont très utilisées par les moteurs de recherche pour
faire la différence : les balises META :
<META NAME="TITLE" CONTENT="titre de la page">
<META NAME="DESCRIPTION" CONTENT="une description">
<META NAME="KEYWORDS" CONTENT="mot clé 1, mot clé 2, mot clé 3">
<META NAME="SUBJECT" CONTENT="sujet du site">
<META NAME="CATEGORY" CONTENT="catégorie du site">
<META NAME="REVISIT-AFTER" CONTENT="15 DAYS">
<META NAME="ROBOTS" CONTENT="All">
Ces balises, placées dans l’en-tête de chaque page (invisible pour
l’internaute) correspondent respectivement au titre donné à la page, à sa
description, aux mots clés la décrivant… Cependant une mauvaise
utilisation de ces balises peut rapidement accroître son référencement.
Rien n’empêche le webmaster d’entrer des mots clés ne correspondant
pas à son site afin d’en faire la promotion.
Ce système en place mets donc la priorité sur la quantité des sites
répertoriés. Les recherches affichent donc toujours plus de résultats, mais
la qualité n’est pas forcément au rendez-vous. Ce n’est qu’à l’arrivée d’un
nouveau concurrent que cela va changer.