On ne sort pas de la Sandbox, on s'en fait sortir

Les discussions sont houleuses sur les forums anglophones en ce moment : ca cause “de-sandboxage”, et une nouvelle technique semble voir le jour : sortir de la sandbox par du pull SEO plutot que par le classique push. Push classique certes, mais qui représente tout de même les deux tiers du SEO : optimisation in page et qualité du contenu.

Le pull SEO, en plus du linkbuilding, vient de trouver une nouvelle utilité : le de-sandboxage

1. la dernière pub Pontiac ne donne pas l’adresse du site web [en] , mais un simple “Google us” (“Googlez nous”). Ce qui revient au même, puisque www.pontiac.com sort premier sur la requête Pontiac.
Quelle différence alors ?

2. Mike Grehan prend l’exemple d’un gagnant de TV réalité dans un discussion sur le sandboxage :

I even give an example of a fan site for the winner of a U.K. reality TV show. The domain was registered at the end of October, hit the top 10 in November, and has stayed there on a search for the winner’s name since.

J’ai même donné l’exemple du site de fan du gagnant d’un show de télé réalité anglais. Domaine enregistré fin octobre, dans le top 10 en novembre, et toujours sur la première page depuis

Qu’est ce qui a pu provoquer une telle percée à travers les habituels 6-9 mois de sandboxage ?

1. + 2. => Pour Mike Grehan, la réponse tient en trois mots :

buzz (online et offline)
= requêtes sur les moteurs
= montée dans les résultats Google
(et sandbox au placard)

It just defies reason to imagine Google doesn’t want to provide fresh, relevant material to its end users. Do end users not want choice? Do they not want a variety of old, trusted favorites combined with new products, services, and information? Has Google really discovered its end users only prefer nine-month-old sites?
A few months ago, the TV show winner was a no one. A search for his name prior to the TV show probably would’ve turned up nothing. But once he gained some popularity with the TV audience, people turned to search engines for more information.
If a search engine can detect a stream of queries, that is, a demand, where the keywords don’t return enough relevant material in the tiered index, be certain it’ll fill the area. Because if end users don’t find the info there, they’ll go somewhere else for it. They won’t wait nine months for Google to serve it up.

Il n’y aucune raison qui pousserait à Google à ne pas fournir du contenu frais et pertinent à ses utilisateurs finaux. Les utilisateurs finaux ne veulent-il pas du choix ? Ne veulent-ils pas un bon mélange de sources anciennes et crédibles et de nouveaux services, produits et informations ? Est-ce-que Google croirait que ses utilisateurs préfèrent des sites âgés de neuf mois au moins ?
Il y a quelques mois, le vainqueur du show télé n’était personne. Une recherche sur son nom avant le show télé n’aurait rien donné. Mais une fois sa notoriété établie dans l’audience TV, les gens ont commencé à le rechercher sur les moteurs.
Si un moteur peut détecter un flux des requêtes, ce qu’on appelle couramment une demande, qui ne renvoit pas assez de contenu pertinent issu de l’index habituel, soyez surs qu’il va modifier ses résultats. Si les utilisateurs finaux ne trouvent pas l’info ici, ils iront chercher ailleurs. Ils ne vont pas attendre neuf mois que Google leur donne ce contenu pertinent.

source : Goodbye, SEO Push. Hello, SEO Pull

Pour Mike Grehan comme sur la discussion Cre8asite, le flux de requêtes sur Google influe donc sur l’ordre des SERP :
une recherche “marque + produit”, répétée suffisamment de fois, fera monter le site de la “marque” sur la requête “produit”. Les recherches des internautes indiquent à Google le buzz du moment.
——————————————
Il y a quelques jours, sur SEOMoz ou ailleurs, un SEO avait d’ailleurs remarqué une réaction étrange de Google. Son site était absent des résultats pour une “requête”. En tapant “requête site:monsite.com”, Google avait indexé “monsite.com” sur cette requête en 24 h.

——————————————

Sur ce sujet, randfish (SEOMoz) s’interroge concrètement sur les deux possibilités de réaliser un afflux suffisant de requêtes :

black hat utiliser proxy ou réseau de relations pour “googler” le site sur la requête ciblée
white hat construire une vraie stratégie marketing multi canaux pour faire monter le buzz et provoquer les requêtes naturelles.

——————————————

Quelle utilité pour les SEO ?

– Google pousse le vice jusqu’à imiter la vie réelle : si les internautes cherchent votre produit avec votre marque, votre marque montera sur les SERP Google.

– mais pourquoi être étonné ? Vous connaissez beaucoup de programmes publicitaires qui diminuent votre facture quand votre annonce est plus cliquée que la concurrence ? C’est ce que fait AdWords depuis les origines : quand le CTR augmente, le CPC baisse et l’annonce monte en position.

Pour le référencement naturel, même logique : non seulement un site fortement cliqué sur une requête montera sur les SERPS.
Mais en plus, il suffit que les requêtes soient suffisamment nombreuses pour faire passer le site à travers la sandbox sans se mouiller les plumes

Pour l’instant, hélas, aucun outil de suivi fidèle n’existe ni pour le nombre de requêtes, ni pour les CTR en résultats naturels. Et ce n’est pas Bush qui va nous les donner [il faudrait déjà qu’il arrive à les récupérer]

Laisser un commentaire