Hébergement parasite

Définition - Que signifie l'hébergement parasite?

L'hébergement de parasites est une technique d'optimisation pour les moteurs de recherche (SEO) qui consiste à publier un blog, un wiki ou un forum gratuit sur un domaine très respecté avec un rang de page élevé. Ces publications gratuites sont utilisées pour créer des backlinks vers un site donné, ce qui peut améliorer le classement de la page des moteurs de recherche de ce site, grâce au rang élevé de l'hôte.

L'hébergement parasite peut également faire référence à l'hébergement d'une page Web sur le serveur de quelqu'un d'autre sans la permission de ce dernier, puis à récolter les avantages du rang élevé de ce dernier dans les moteurs de recherche. Cette astuce est souvent menée sur des sites avec un domaine de premier niveau «.edu», que les moteurs de recherche tels que Google considèrent comme ayant une haute autorité.

L'hébergement parasite peut également être appelé hébergement parasite.

Definir Tech explique l'hébergement de parasites

Comme son nom l'indique, l'hébergement parasite est souvent considéré comme une technique de référencement black hat car il est souvent utilisé pour les liens de spam. Cependant, le terme peut également s'appliquer à des pratiques moins insidieuses telles que le maintien d'un profil par l'administrateur d'un site Web sur un site Web de média social tel que Facebook ou Twitter.

Supposons que vous effectuiez une recherche pour acheter du Viagra. Cela fera apparaître un certain nombre de visites, mais les meilleurs résultats sont ceux provenant de sites hautement réputés avec des adresses «.edu». Lorsque le chercheur clique sur ces liens, il ou elle peut être redirigé vers la page Web du vendeur de Viagra. Ceci est un exemple d'hébergement parasite réalisé à des fins de spamdexing.

Bien que les moteurs de recherche travaillent pour optimiser en permanence leurs résultats de recherche pour filtrer les spammeurs qui utilisent les techniques du chapeau noir, ceux qui utilisent le SEO chapeau noir sont souvent prompts à trouver des failles dans les nouveaux algorithmes des moteurs de recherche.