WMW, liens intéressants – 22 février

Un petit apercu du jour de WebMasterWorld :

Le fil sur la Google Dance en cours depuis le 18 février
Sur un des mes sites (3 ans d’existence), ce matin 22 février, 4 sur 20 DC seulement avaient actualisé le PR. (à 9h)
À 10h, 7 DC.
À 11h, 10DC.
À 12h, 11 DC.

————————————-

Pour suivre le PR de vos pages, le Page Rank Assisted Search Engine, avec une requete du type « site:www.votresite.com », permet d’obtenir le PR de toutes les pages du site. Par contre, pas de suivi par DC.

————————————-

Le scan de livres par Google : une rumeur grandissante ferait état d’un scan destiné à une intelligence artificielle, et non à des lecteurs humains
Le fil de WMW.

George Dyson wrote, in an article in Edge about his visit to the plex, that one of the Google employees told him:
« We are not scanning all those books to be read by people. We are scanning them to be read by an AI. »
http://www.edge.org/3rd_culture/dyson05/dyson05_index.html
Also, from an article in the Economist:
‘Paul Saffo at Silicon Valley’s Institute for the Future says… « they’re trying to build the machine that will pass the Turing test » – in other words, an artificial intelligence that can pass as a human in written conversations. Wisely or not, Google wants to be a new sort of deus ex machina.’
http://www.economist.com/business/displaystory.cfm?story_id=5382048

George Dyson, dans un article de Edge à propos de sa visite dans le GooglePlex, rapporte qu’un des employés de Google lui a dit :
« Nous ne scannons pas tous ces livres pour être lu par des humains. Nous les scannons pour être lu par une intelligence artificielle.« 
Un article de l’Economiste :
« Selon Paul Saffo, de l’Institut pour le Futur de la Silicon Vallée […] « ils essaient de construire une machine qui passerait le test de Turing », en d’autres termes, une intelligence artificielle qui pourrait se comporter comme un humain dans une conversation écrite. Que ce soit prudent ou non, Google veut devenir un nouveau deus ex machina« 

NdM : citation latine employée à contre sens à mon avis. Le deus ex machina était la surprise dramatique du théâtre antique, au moment où le dieu sortait de la machine, au sens d’une apparition impromptue et salvatrice – ou fatale. Le sens voulu ici est plutot celui d’une intelligence omnisciente qui sort d’un simple mécanisme.

————————————-

CTR élevé sur les Adsense, un risque ? Le fil sur WMW, qui fait écho à une question récente sur le Hub.

————————————-

Google SandBox : mais pourquoi est il aussi méchant ? Quelques réponses intéressantes sur ce fil à propos de la sandbox.

The ‘sandbox effect’, as Google has acknowledged exists, is probably due to several tweeks in the algo. These may include an extended time it takes for some links to pass their full pr (applicable to old & new sites) plus deeper analysis of the type of inbound links. There may be other factors such as usuage from toolbar data or Alexa which could help determine the quality of a site. Another possibility is that to achieve high rankings for competitive searches, the body content of a page needs to be being counted and contributing ‘points’ in the ranking algorithm. I suspect that new sites have their body content pretty much ignored until the site earns a sufficient status. These and many other factors need to be processed and evaluated before a site gets good relevant rankings. The emphasis seems to be on ‘natural’ growth which, once Google is satisfied, will deem the site worthy of ranking. Apparently if you present the site in the right way this can be a relatively short time period, but personally I have yet to see any proof of a site ranking well for many keyword phrases within 6 months.

« what’s the reasoning? »
Discouraging webmasters from putting up a new site every week may not have been the intention but it probably has achieved this. The lack of ‘instant gratification’ is a big dampener for producing endless new sites. The real reason is probably an attempt to evaluate sites and rank them according to considerably more factors than in the past, with no one factor having a major importance. In other words, you have to achieve optimisation in many areas, whereas 2 years ago a few links and a good title did wonders. Now the algo has 200+ requirements. Many older sites will already have clocked up the necessary ‘requirements’ and hold their position, but new sites need to earn them. Some old sites hang in there but will drop away as new sites qualify for ranking. This takes time, especially if a ‘natural’ linking and growth is being looked for. It is as if Google now assumes all new sites are potential spam and thus treats them with caution. In the longterm, this will produce high rankings for those who have ‘qualified’ on many levels and not on only a few.
auteur :
MHes

L’effet sandbox, dont Google a reconnu l’existence, est probablement causée par plusieurs paramètres de l’algorithme. Par exemple, le temps nécessaire à la tranmission de PR par certains liens (pour les sites anciens et nouveaux), et l’analyse fine des liens entrants. Il peut y avoir des facteurs comme l’utilisation des données de la barre Google, ou les infos Alexa qui permettent de déterminer en partie la qualité d’un site. Une autre possibilité est que les positionnements sur les requêtes concurrentielles nécessitent l’analyse fine du contenu de la page. Je crois que le contenu des nouveaux sites est quasiment ignoré au début. Beaucoup d’autres facteurs doivent être évalués avant d’obtenir de bons positionnements. On parle beaucoup de la croissance « naturelle » qui, une fois Google satisfait, offre au site de bons positionnements. Manifestement, si le site est bien optimisé, le délai peut être assez court, mais je n’ai pas encore vu personnellement de site bien positionné sur un nombre suffisant de requêtes en moins de 6 mois.

Quelle raison ?
Décourager les webmestres de lancer un nouveau site par semaine n’était probablement pas la raison initiale, mais un effet secondaire. L’absence de « gratification immédiate » est un frein certain à la création infinie de nouveaux sites. La vraie raison est probablement la nécessité d’évaluer les sites et de les positionner selon beaucoup plus de facteurs qu’auparavant, et sans facteur dominant. En d’autres termes, vous devez optimiser beaucoup de choses différentes, alors qu’il y a 2 ans, quelques liens et un bon titre suffisaient. Aujourd’hui, l’algorithme a plus de 200 facteurs. Beaucoup de sites anciens sont actualisés sur ces facteurs et tiennent leurs positions, mais les sites récents doivent les mériter. Certains sites anciens tiennent encore et seront dépassés par de nouveaux sites mieux optimisés. Cela prend du temps, surtout si les liens et la croissance naturels sont favorisés. On a parfois l’impression que Google considère tous les nouveaux sites comme du spam potentiel et les prenne avec des pincettes. A long terme, les sites qui ont optimisé sur la plupart des facteurs – et non pas quelques uns – obtiendront les meilleurs positionnements.

Laisser un commentaire