Coup de gueule : une sémantique pour Google ?

Actualité

Publié par le , mis à jour le (44793 lectures)

Suite à une discussion avec un anonyme mais respecté collègue, voici mon premier billet "coup de gueule " (qui a dit "troll" ?) à propos de Sémantique et de Référencement.

Concours et tests des failles de Google

Les bénéfices des Standards et d'un site accessible sont un atout important pour le référencement d'un site sur le moteur numéro un, Google, cela commence à se savoir.

Il y'a quelque temps est né un concours de positionnement nommé "Mangeur de cigognes" qui a démontré que la sémantique avait un impact très favorable sur le positionnement d'un site chez Google.

Depuis peu, un nouveau concours a vu le jour : celui des tripoteurs de glaouïs tripalateurs de graouf.

Ce genre de jeux ont l'air sympathiques au premier abord, mais il est lassant de constater leur entêtement à trouver les failles de Google coûte que coûte (au détriment des valeurs comme le Contenu et la Sémantique), de façon agressive puisque l'émulation implique et permet toutes les méthodes plus ou moins frauduleuses... jusqu'à ce qu'on se fasse prendre.

En passant, juste un mot sur le pouvoir des Backlinks (liens pointants vers votre site web) : Faites une recherche sous éleveur de choucroute sur Google et admirez le site placé en tête, vous verrez qu'on peut faire des choses étonnantes avec des liens vers votre site ;)

Halte à la Pseudo-sémantique

Les vieilles bidouilles sont aux oubliettes : fini les textes de la même couleur que le fond de page, exit les multiples mots clés dans les meta-tags, ... la mode a changé.

L'on voit poindre partout des attributs "title" remplis de mots-clés disparates, sans aucune valeur sémantique naturellement.

Mais au-delà de l'attribut "title", c'est l'utilisation à outrance de la balise H1 qui est la principale source de ce coup de gueule.

Personnellement, je suis de ceux qui pensent qu'un document ne doit avoir qu'un seul titre principal (donc un seul H1). Corrigez-moi si je ne me trompe, mais chaque page web a un titre principal et unique (un peu équivalent au meta-tag "title" du document), celui qu'on voit tout en haut et qui dit "Bienvenue chez moi".

Depuis que l'on sait que la balise H1 est fortement prise en compte par Google, on en voit de toutes les couleurs et de tous les usages : balises H1 multiples, balises H1 cachées avec un display none ou un visibility hidden, balises H1 ne contenant que des mots clés sans sens ni fil conducteur... et j'en passe.

Bref, la sémantique des balises s'efface au profit d'une pseudo-sémantique vouée au dieu Google !

Comprenez donc ma surprise lorsque mon collègue me demande comment éviter que la balise H1 retourne à la ligne.

Ne saisissant pas bien son problème, je lui suggère de la placer en flottant ou de la déclarer inline afin qu'elle reste dans le texte courant, tout en lui soulignant que cette méthode n'était pas très logique.

Il se justifie en m'expliquant que malheureusement, les méthodes de référencement l'obligent un peu a utiliser ce genre de pratiques, par exemple pour mieux référencer les mots clés "création site internet", il était judicieux d'utiliser H1 de cette manière :

Pour la <h1>creation site internet</h1> patati patata, ainsi que la <h1>creation de site</h1> bla bla bla

N'étant pas sûr que mettre toute une phrase dans une balise H1 pour référencer juste un mot fonctionne correctement, mon collègue a donc voulu suivre cette technique de ne baliser que les mots importants en H1.

Je vérifie... et je confirme : j'en ai encore les cheveux dressés d'horripilation.

Bien sûr, ce genre de techniques douteuses n'est pas pire que d'autres (des gros sites ont été blacklistés par yahoo et google a cause du cloaking et satellite), mais ce qui est énervant est le principe : dévier l'utilité du balisage juste pour le référencement.

Comme par hasard, depuis qu'on a découvert que google aimait les choses bien faites, les webmasters se sont mis à s'intéresser à la Sémantique... pas pour le fond mais pour la forme.

Bien sûr, l'argument qu'on m'a rétorqué est qu'aujourd'hui l'on a plus le choix dans certains cas : il faut suivre les autres ou disparaître dans les lîmbes des classements googlesques... en tant que référenceur, il faut se batte à armes égales. Soit.

Mais pourquoi doit-on toujours détourner les choses de leur emploi premier ?

Pourquoi doit-on en arriver à construire un site pour qu'il soit référencé et non pour le contenu qu'il peut apporter ?

Je laisse la question posée pendant quelques jours..

Commentaires

Question passionnante et sujet d'importance !

Ce qui me hérrisse dans les exemples que tu donnes, n'est pas tant le détournement de rôle des balises : nous passons notre temps à détourner nos outils, parfois avec malheur, parfois avec bonheur, c'est une méthode d'exploration que de tenter d'ouvrir une boîte de conserve avec une lime à ongles (ne faites pas ça chez vous, ce sont des professionnels surentrainés chez les scouts qui font la démo) ou d'ôter sa bancalité à une table grâce à un bouquin. Cela peut donner naissance à de nouvelles idées, c'est en fait une certaine forme de création. Je pense que nous pouvons faire avancer le web en forçant les balises à servir nos causes.


Non, ce qui m'agace, me fait bouillonner, c'est en fait cette lutte acharnée pour être au top. A n'importe quel prix, même le plus vil. Car bon, mettre en évidence des termes dans une page à coup de h1, ce n'est pas du détournement, c'est un vice neuneutique, le mauvais goût au service du commerce. Des créateurs de sites internet (puisque c'est l'exemple), il y en a tant, que ce genre de tricherie hôte tout sens au référencement. Je m'explique : certes cela fonctionnera quelques temps, la position dans les résultats de recherche sera correcte le temps que le client vérifie qu'il est bien (et de mieux en mieux) placé. Mais l'astuce ne fonctionnera pas longtemps si tout le monde s'y met. Et comment se sortir du lot des milliers de créateurs de sites ? C'est totalement illusoire et inimaginatif de ne se contenter que du référencement (ce qui est pourtant le cas le plus fréquent, vu les tarifs honteusement appliqués dans ce domaine).

J'ose espérer que des gars comme GoogleGuy seront interpellés sur la question et sauront remettre les bonnes choses à leur place, parce qu'en effet, si tout le monde se met à baliser à l'envers, les moteurs de recherche comme google ou yahoo perdront en efficacité, mais surtout la sémantique web, développement noble, aura beaucoup perdu en crédibilité.

- Epaté pour l'éleveur de choucroute. Comment t'as fait ça ?

- Pour l'idée du H1 principal je suis pas d'accord avec ce principe. Lorsque tu consultes un sommaire ou une table des matières les titres de premier niveau correspondent au titres principaux. Ce qui correspond au menu principal sur un site web.

- Quand tu travailles pour un boss qui n'y connaît rien, tu peux danser sur ta tête et lui dire que le référencement à bien été fait mais il faut un peu de temps pour lancer le nouveau site et être repris par les moteurs de recherche. Lui, ce qui l'intéresse ce sont des résultats, il veut voir des chiffres et une présence en tête de liste. Tout ce qu'il connaît c'est que Google est utilisé par la majorité des gens donc lui il veut voir son joli site en première page. S'il paye des gens pour faire un site c'est pas pour être le numéro 3645. Cette attitude pousse certains à "forcer" les résultats. "Google aime le poulet roti ? et bien je vais lui en mettre plein sa panse".

Deuxième chose, j'ai assisté à de nombreuses conférences de marketing Internet. L'instructeur était fier de pouvoir apprendre les techniques de spamdexing et autres. Moi j'étais abasourdi et lorsque j'ai fait une remarque pour manifester mon mécontentement face à ces pratiques malhonnêtes il m'a répondu que j'était innocent et que le marqueting c'est un monde de requins ou toutes les façons pour réussir sont bonnes. Et ce monsieur est reconnu au niveau européen.

Mais il y aura toujours des imbéciles pour détourner ce qui à la base a été pensé pour un mieux.

ps: petite faute en début de texte >>fauduleuses<<

@Katsoura :

- Pour eleveur de choucroute, je n'ai rien fait, ce sont les autres modérateur de media-box qui m'ont fait une surprise en faisant tous un backlink vers Alsa à partir de leurs sites.

- A propos du H1, ton exemple est bien choisi : lorsque tu consultes un sommaire ou une table des matières, le titre principal du document est "sommaire" ou "table des matières" ;)

- Je sais bien qu'il y'a des requins partout où il y'a de l'argent, mais tout ça me lasse quand-même :-/

Que ça plaise à Google ou pas, peu m'importe :
Moi, sur mon 'tit site perso, j'ai mis le titre du site en h1, le titre des rubriques principales en h2, et ainsi de suite. Donc sur toutes les pages on retrouve le même h1, tout en haut. et en "chemin de fer", le h2 et parfois un h3 stylés css bien sûr. En revanche, dans la méta-balise "title", je reprends toujours l'intitulé de h1 + h2 + h3.
perso.wanadoo.fr/pascal.g...
(Repassez dans un moment si vous n'avez pas de connexion : Wanadoo fait des siennes en ce moment ;-)

Héhé, on s'est bien marré sur "eleveur de choucroute" !!! :D

Sinon, bien que le h1 soit d'une grande importance pour google, je dirais aussi qu'un contenu dense, varié et souvent renouvelé est aussi une des clés du référencement ! :)

++ ^^

C'est marrant, aujourd'hui avant de lire ton log, c'est presque ce que je disais sur le forum WRI : www.webrankinfo.com/forum...

Je pense que ce phénomène tient à deux choses :
- tant qu'être bien référencé fera venir plus de monde que d'avoir un site bien construit, ça existera
- google se rapproche de plus en plus de standards, c'est pourquoi les gens s'y intéressent. Lorsque ce rapprochement sera idéal, peut être que les astuces de triche disparaîtront.

Par contre, même si c'est énervant, il faut voir que comme google vise les standards, les gens pour être bien référencés s'en rapprochent aussi. Donc quelque part, si ça peu accélerer le processus de passage aux standards dans la création web, ça peut être très positif.

J'utilise exactement le même principe que Ndeko, un unique et toujours identique h1 pour l'identité du site, puis un h2 pour l'identification de la page courante, puis autant de h3 que nécessaire pour les parties du contenu, suivi éventuellement de quelques h4, h5, etc.

C'est il me semble assez important pour l'accessibilité, mais je ne retrouve plus de lien l'expliquant. Je crois que ça venait de Braillenet.

le problème c'est que la fréquentation d'un site est enormément tributaire de google et 2 ou 3 autres moteurs aujourd'hui. La semantique c'est comme la liberté, on y est beaucoup plus réceptif le ventre plein !!! Si un client (ou pour moi) n'a pas de requete en terme de référencement je suis beaucoup plus attentif à la sémantique des tags utilisés qu'à leut influence dans google que si il faut être en première page sur un couple de mots clefs. C'est google qui fait le marché pas le W3C, si google corrige le tir, les sites suivront. En bourse on dit le marché à toujours raison !!!

Vouloir "optimiser" sa page en fonction des algos est toujours une manoeuvre à court terme. Le but de Google et des moteurs de recherche en général est d'indexer correctement les pages de contenu en laissant de coté les pages qui "trichent". Le résultat c'est qu'à terme, avec l'amélioration constante des algos et les corrections pour corriger les problèmes, c'est toujours le contenu propre, bien fait et utile qui gagnera.
Actuellement on peut dors et déjà dire que faire une sémantique correct et un contenu bien réalisé est le meilleur rapport gains/temps_passé en termes de référencement.

Maintenant de toutes façons pourrir la sémantique pour sur-optimiser une page c'est forcément une mauvaise idée :
- à quoi sert une page bien référencée si son contenu n'est pas accessible ? on arrive dessus, et on repart sans s'y intéresser
- faire de la sur-optimisation c'est forcément sur un mot clé au détriment de tous les autres qui pourraient s'avérer pertinent pour les visiteurs (vous n'avez jamais été joints sur des recherches biscornues mais pourtant pertinentes ?)

À terme les profusions de <h1> s'arrêteront au même titre qu'on commence à voir disparaitre les méta contenant "sex mp3 warez nude" pour attirer le public.

Sinon globalement, pour reprendre ton discours, je te propose de jetter un oeil à mangeur-de-cigogne.info/ : on essaie justement de profiter du concours mangeur de cigogne pour promouvoir la sémantique et les sites orientés contenu sans céder aux techniques contestables. Une sorte de panneau publicitaire justement.

Certaines boites de référencement l'ont compris et visent effectivement des sites de qualités bien construit (conseils sur la sémantique, sur l'organisation globale des pages, sur la mise en avant du contenu réel ...). Il y en a de plus en plus, choisissez bien la votre.

@Eric Daspet > Tiens, ça tombe bien que tu me parles de ce concours cigognophage ;)
Il y a une chose qui me gêne beaucoup sur ce concours précis, c'est que la pertinence de Google s'en trouve altérée.
Je m'explique : imaginons que je veuille faire un exposé scolaire sur les cigognes. Je vais naturellement chercher ce mot-clé dans mon moteur favori et la plupart des résultats sur lesquels je tombe sont les sites du concours, qui n'ont évidemment rien à voir avec ce que je cherche et ne m'apportent strictement aucune information pertinente.
Bien sûr, il ne s'agit que d'un exemple qui n'a que peu d'importance, mais ce principe généralisé dénature grandement la pertinence de Google : on ne trouve pas ce qu'on cherche, mais les sites les mieux référencés...

La meilleure preuve est l'exemple que j'ai donné avec les mots "éleveur de choucroute" : le premier site renvoyé par Google est... le Blog d'Alsa ! Or il n'y a strictement AUCUN des mots clés cherchés dans le contenu, simplement de nombreux backlinks pointants sur le blog.

Le cas du h1 tiens plus de la bêtise humaine, c'est toujours pareil, on dit que 'h1 est pris en compte' et les gens veulent toujours en mettre plus, une voiture roule t'elle mieux avec 8 roue ?

Pour le cas 'éleveur de choucroute', j'ai lancé cette idée suite à une privote-joke sur le forum, dans ce cas précis ca a marcher avec peu de lien tout simplement parce qu'il n'y avait pas beaucoup de page répondant sur cette requette absurde (190 avant operation). Réaliser un Google-Bombing est une chose trés facile, mais le faire sur une vraie requette concurentiel, c'est autre chose ...

et pour ce qui est des résultats Sib, je te repondrais simplement apprend à interroger correctement un moteur ! il y a des + - site: inurl: .... un moteur c'est tout une syntaxe, il faut apprendre a s'en servir. concretement pour ton exposé sur les cigognes, il te suffirait de taper la recherche 'cigogne -mangeur' et la, HO miracle du dieu Google, plus de m.d.c.

@Ldo > juste pour information : en pourcentage, combien d'utilisateurs lambda utilisent les fonctions avancés de Google ? ;) Personnellement, pour mon exemple des cigognes je te rassure, j'ai une petite expérience des moteurs qui m'aide à trouver ce que je cherche...
Lorsque tu dis qu'il "suffirait de taper la recherche 'cigogne -mangeur'", on est tout à fait d'accord. Mais la question est "qui utilise ce genre de fonction à part les gens qui, comme nous ont une grande expérience du web et de ses us et coutumes ?" (attention, je n'ai pas demandé "qui DEVRAIT utiliser ce genre de fonction ?").

on est bien d'accord Sib ;)
m'enfin dans toute chose il y a un miminum d'apprentissage à faire.
L'utilisateur lambda me fatigue de plus en plus, ce bon vieux gros mouton tout juste bon à taper **** dans la petite case blanche sans réflechir. On se demande même comment il sait que c'est dans la case blanche qu'il faut mettre le mot, il l'a apprit tout seul ou bien on l'as aider ? c'est donc devenu ca aujourd'hui le web ?
bon dsl, je m'écarte du sujet, on ferme />

L'éternel débat...
je ne vais pas m'étendre plus sur la question...
toujours est-il...un peu de bon sens et comme l'a dit LAlex, on veut des sites à jour :D

@Raphael Goetter>

Tout à fait d'accord. Personnellement j'avais fait au mot clé global. "mangeur de cigogne" ne devait pas gêner Google, mais n'avais penser qu'on arriverait aussi à perturber de manière importante pour "mangeur" et pour "cigogne". Je pense que sinon je n'aurai pas participé.
Je ne suis pas le seul à avoir pensé à ça après coup. Beaucoup on pris l'engagement de référencer les sites de cigognes sur leurs pages après le concours. Ça ne va surement pas annuler les dégats mais peut être en diminuer les effets.
Il est clair après coup que ce concours aurait dû se base sur des mots inexistants, participer ainsi a probablement été une erreur ... mais c'est un peu tard maintenant.

deux GD, si tout le monde fait le menage sur ses sites et ce sera réglé. C'est aussi l'occasion pour ceux qui ne retrouve plus leur petits d'apprendre à utiliser -, + ...

Tout à fait d'accord avec vous sur ce sujet. Google est assez facilement perturabable, je trouve. Un bon PR et le tour est joué. Voyez comment reacteur.com se positionne sans difficulté devant de nombreux sites web de qualité. Je ne dis pas que leur pratique est frauduleuse ou quoi que ce soit mais il faut bien avouer qu'elle est trompeuse. Mais le résultat est là: reacteur.com aura gagné un visiteur. Mais le résultat est là: reacteur.com aura gagné un visiteur.

Ca me fait un peu pensé aux nombreux sites "miroir" (au sens de site identique) qui existaient il y a quelques années. Le webmaster se contentait de modifier le titre du site et le tour était joué. Le résultat est aussi là: au lieu de ne recevoir qu'une visite, ce site en aura plusieurs (mais le visiteur aura vu la même chose à chaque coup).

Désolé si je me suis un peu éloigné du sujet initial.

Une méthode efficace pour annuler les effets pervers du concours ? utiliser un robots.txt interdisant aux moteurs d'indexer ces pages (et mettre un meta-tag interdisant l'archivage du contenu, deux précautions valent mieux qu'une)

Je ne suis pas totallement d'accord avec le fait qu'il ne faille qu'une balise h1 par page... si c'était le cas, elle ferait redondance avec le titre et ne servirait donc à rien!

@Julien > H1 EST le titre justement, donc il n'y a pas redondance.
Si tu parles d'une éventuelle redondance entre <title> et <h1> elle n'existe pas non-plus puisque <title> est un meta-tag qui n'est pas visible sur la page et qui ne sert qu'à l'affichage du nom de la page sur le navigateur (et éventuellement au référencement).
H1 au contraire est le titre visible de la page.

Salut,

Je viens de passer le site de mon employeur (www.editelor.com) en XHTML 1.1, et le classement dans Google sur la requête "rédaction des comptes rendus" ne s'est pas amélioré (c'est l'activité de l'entreprise).

Donc je pense que Google se base aussi sur les liens présents sur d'autres sites. Un site dont il est fait référence un peu partout arrivera probablement plus haut dans le classement qu'un site qui n'est référencé nulle part. Je me trompe?

Grégoire

@Grégoire Colbert> oui sans aucun doute : la sémantique ne fait pas tout (et heureusement). Le principal reste la pertinence du contenu.

@ Grégoire Colbert
Dans un monde idéal, un site n'aurait qu'à être enrichi d'éléments sémantiques valides pour améliorer son référencement.
Mais le Web n'est pas pas né dans un monde idéal : les moteurs de recherche se sont développés pour indexer le plus efficacement possible le plus grand nombre de page possibles... codées en dépit de toute sémantique. Les moteurs font ça très bien (voir google).

Mais cela signifie que "faire standard" n'apporte aucun gain de référencement dans des moteurs élaborés avant tout pour gérer de la soupe de tag... face aux pratiques aberrantes mais efficaces des référenceurs ;)

Petit détail : tu t'y es très bien pris, mais a priori, le site de ton employeur avait-il **besoin** d'être en XHTML1.1 plutôt qu'en XHTML 1.0 ? Quelle est la valeur ajoutée ici ?

@ Laurent Denis,

En effet, il n'y avait aucun besoin de faire du XHTML 1.1, mais pourquoi aurait-il été préférable de le faire en 1.0? Je ne comprends pas le sens de ta remarque (est-ce que c'est parce que le validateur n'aime pas <embed> en 1.1, mais l'accepterait-il en 1.0?).

Grégoire

Re!

Bon j'ai cherché pour les <embed> et ça sera corrigé pour la prochaine version. Je maintiens donc ma question : quel est l'intérêt de faire du XHTML 1.0 au lieu du XHTML 1.1? J'ai déjà lu un article qui disait que le XHTML n'avait aucun intérêt pour la plupart des gens et qui recommandait le HTML 4.01, pour sa compatibilité... Mais entre le XHTML 1.0 et 1.1, je ne vois pas trop la subtilité!

Grégoire

Salut Sibelius,

Tu parles du Content-Type? C'est vrai que XHTML 1.1 doit être servi en application/xhtml+xml et que IE n'aime pas ça du tout, alors que la version XHTML 1.0 tolère d'être servi en text/html... J'avais oublié que j'enfreignais la norme avec IE, hé hé, mais IE enfreint beaucoup de normes, pas vrai? En fait pour gérer ça au mieux, je teste si le navigateur accepte le contenu application/xhtml+xml avec PHP:

// On passe en application/xhtml+xml si le navigateur le permet
if (stristr($_SERVER['HTTP_ACCEPT'],'application/xhtml+xml')) {
header("Content-type: application/xhtml+xml; charset=UTF-8");
// MSIE n'aime pas non plus l'entête XML
echo ("<?xml version=\"1.0\" encoding=\"UTF-8\"?>\n");
}
else {
header("Content-type: text/html; charset=UTF-8");
}

Pourquoi adopter un standard (XHTML1.1) pour ne pas le respecter ?

Adresser simplement du XHTML1.1 en text/html à IE ne fait pas partie, hélas, des erreurs grossières de validation que le validateur du W3C peut identifier. Mais c'en est une !

XHTML1.1 ne doit être envoyé qu'aux navigateurs qui supportent application/xhtml+xml. Les autres doivent recevoir, par content-negociation, du XHTML1.0 ou ce que tu voudras tant que c'est valide.

Cela dit, l'utilité du XHTML1.1, c'est la modularité si tu as besoin de MathMl, de SVG, de ruby... Si aucun de ces dialectes XML n'est utilisé sur ton site, quel est l'intérêt de devoir passer par un test du HTTP_ACCEPT, une négociation de contenu, un formatage en XHTML1.1 pour les uns, en XHTML1.0 pour les autres... ? Juste pour le fun ?

Le bon choix d'une DTD ne se mesure pas à son numéro de version ;)

@ Laurent Denis,

Bon d'accord, pour te faire plaisir, je passerai le DOCTYPE en XHTML 1.0 Strict dans la prochaine version, mais je maintiendrai le test de HTTP_ACCEPT, car on devrait servir le XHTML 1.0 en application/xhtml+xml quand c'est possible, le text/html n'est qu'une tolérance, il me semble.

En échange, peux-tu utiliser plutôt "intégriste" que "ayatollah" dans ton blog? Cette métaphore religieuse me déplaît autant que "espéranto" dans des phrases du genre "l'anglais est l'espéranto du 21ème siècle"... Qui dit qu'un jour les ayatollahs ne seront pas tolérants, et que les journalistes qui ont la métaphore facile seront toujours ignorants sur les qualités respectives de l'anglais et de l'espéranto?

@Grégoire > Tu as tout à fait raison pour XHTML1.0 sur le type mime.

Pour les "ayatollas des standards", je trouve personnellement l'expression de très mauvais goût, d'autant plus que l'Islam iranien ne m'est pas tout à fait étranger ;) Mais c'était une référence à un article polémique resté fameux, à parti duquel l'expression a été reprise ici ou là :
www.uzine.net/article1979...

Bonjour Sibelius,
Pleins de pensées me viennent à l'esprit concernant ton article.
Concernant les concours de positionnement, je pense que ce n'est pas si terrible puisque sur un concours comme mangeur de cigogne, j'estime à une petite cinquantaine le nombre de candidats qui ont un peu participé et une vingtaine pour ceux qui ont essayé de gagner. Parmi les plus forcenés, la plupart connaissaient déjà toutes les techniques visant à bluffer Google. Sur un autre plan, l'échange entre candidats a été hyper bénéfique et un gros groupe de mangeur a tissé des liens très forts d'amitié. Pour finir, je pense qu'on peut un peut s'amuser avec Google qui se joue de nous aussi en permanence.
Par contre, je trouve que sur certains gros forums, c'est le déballage à outrance des techniques de triche et c'est néfaste.

Pff, moi qui voulais me taper une bonne choucroute ...
C'est de toute façon idiot à long terme de biaiser les moteurs de recherche, et surtout dommageable pour l'ensemble des users. Ca me rapelle la perte flagrante d'efficacité du moteur alltheweb en ce qui concerne les vidéeos, très souvent à côté de la plaque.

Deux choses:

Tout d'abord. Tu te plains des gens qui utilisent Google comme outil de jeu et qui le détournent de son utilité principale: c'est un moteur de recherche. Pourtant, sur ton site, tu rentres dans le jeu que Google veut imposer: j'ai nommé le "nofollow" ! C'est l'autre extrême, non ? Je reste convaincu que cette tentative de "putsch" de la part de Google (entre autres) est détestable.

Ensuite, pour répondre à katsoura. Si ton boss veut être placé en tête sous Google, tu n'as qu'à lui dire qu'il existe une solution: ça s'achête ! On peut en effet acheter des mots-clés chez Google pour être placé forcément en premier. C'est bien plus simple et plus efficace que d'entourer ses mots-clés par h1 ! (sic)

@+, HoPHP

@HoPHP > A la base, je ne vois pas en quoi il est extrême de vouloir éviter le spam en utilisant nofollow :/

Je suis un lecteur silencieux de ce blog. Mais suite à un commentaire de Laurent Denis (merci) laissé sur mon propre blog et puisque je fais référence à ce billet-ci, il me semble opportun de signaler ici mon billet concernant le nouveau concours de positionnement pour apprentis sorciers :
www.atelierphp5.com/appre...

Commentaires clos