Article invité, rédigé par Christian Méline !
Ce nouvel article vous est proposé par Christian, professionnel du référencement mais également développeur de logiciels.
Responsable du blog referencement-naturel-white-hat, Christian est souvent amené à rédiger des articles SEO.
Un article en guest donc, complet, avec un style différent du mien, et qui soulève une vraie problématique : le SEO et les changements récents du métier. Bonne lecture !
Google en veut-il aux SEO ?
Il parait que Google n’aimerait pas les référenceurs… d’où l’idée de se déguiser en internaute lambda pour ne pas être repéré.
Vous vous dîtes alors que, si vous « semblez naturel », il devrait vous laisser passer sans rien vous dire, puisqu’il ne se rendra même pas compte que vous êtes SEO… pas sûr…
Pour ma part, je crois que Google sait parfaitement reconnaître quand un site est référencé par un SEO et que ce n’est pas parce que le référenceur fait semblant d’être naturel que Google est dupe.
Il sait, par exemple, comparer le trafic d’une plateforme, propre aux référenceurs, avec le nombre de soumissions qui y sont faites. Est-ce raisonnable de voir certaines plateformes de CP publier 30 communiqués par jour, alors qu’ils ont à peine plus d’audience ? À chaque fois, il y a des liens dans les publications, la ficelle est tellement énorme…
Il est difficile d’imaginer que Google soit dupé par ce type d’actions.
Il sait aussi reconnaître une balise TITLE faite par un bourrin, une balise TITLE faite par un référenceur et celle faite par une personne « normale ». En fait, il n’y a pas grand-chose qu’il ne sache pas reconnaître.
Alors, est-ce à dire un jeu entre fourbes consentants ?
Peut-être bien à de nombreux égards…
En réalité, il faut bien prendre conscience que Google n’est pourtant pas en guerre contre les SEO, mais il lui faut résoudre un problème important de ressources machine que cette communauté lui coûte.
Google a besoin de parcourir le web en permanence, il aime le dévorer. Par contre, la taille du spam a peut-être bien dépassé largement la taille du web réel aujourd’hui avec tous les systèmes automatisés qui se sont vulgarisés depuis quelques années. Pire, il n’y a pas seulement le nombre de pages en ligne, mais le nombre de liaisons (liens) entre les sites : ces liens ont été multipliés de façon exponentielle et c’est là que cela manipule le PageRank global du web.
Cette gestion a un coût énorme pour Google (électricité, datacenters, etc.). Et pour quoi faire ? Il y a toujours le même nombre de résultats dans une SERP.
Il fallait calmer les acteurs de ce « web artificiel » qui ont fait exploser les coûts de Google sur le search. En même temps, en laissant faire tout le monde durant tant d’années, Google était consentant. Seul l’internaute pouvait y perdre et Google se fout complètement de l’internaute.
N’y voyez rien d’autre qu’une simple question de gros sous. Quand les conséquences du travail des référenceurs seront redevenues une faible proportion du coût global du search chez Google, il nous foutra de nouveau la paix (sauf si on recommence).
Les filtres de Google nettoient les index de Google jusqu’à tant que ce qui reste « redevienne normal », donc, cela se fait à tâtons, à coup de filtre dont le curseur est ajusté à chaque passage.
D’ailleurs, si vous êtes vous-même victime collatérale des filtres de Google, sachez qu’il s’en fout aussi (là, c’est plus ennuyeux, mais ne voyez pas chez Google la moindre motivation basée sur l’éthique).
Tout cela n’a rien à voir, selon moi, avec AdWords ou une haine du SEO.
Alors, pourquoi Google demande-t-il à ce que l’on soit naturel ?
En fait, les logiciels automatiques ne savent pas être vraiment naturels. En nous demandant de l’être, Google évite, par là même, l’explosion des pages qui ne servent qu’au référencement et qui lui coûtent si cher. Idem : MC veut que nous fassions un contenu intéressant et de qualité. Personnellement, je ne connais pas de logiciels sachant faire un contenu intéressant et de qualité aujourd’hui.
Forcément, si vous devez être naturel, qui plus est sur des supports ayant de l’audience, la taille du référencement d’un site va drastiquement se réduire…
C’est donc beaucoup plus une des façons d’obtenir moins de consommation machine qu’une réelle volonté de voir le contenu du web s’améliorer.
Ceci explique d’ailleurs pourquoi certains sites extrêmement médiocres sont encore accessibles via l’index de Google.
Si vous voulez faire un contenu totalement inutile et de faible qualité, essayez seulement de ne pas faire trop de liens vers lui ou à partir de lui et Google tournera la tête…
Le nofollow dans nos actions : la curation, mode dissolution
Que veut dire « nofollow » : Google ne suit pas ce lien. Je traduis en code Google : je ne suis pas obligé de consommer des ressources machine pour évaluer le poids du lien, mais je note quand même que ce lien existe.
Par contre, très clairement, Google fait absolument ce qu’il veut avec ce type de lien et ils sont bien partiellement comptabilisés. Je m’explique : ces liens sont dans les databases chez Google, MAIS Google n’a pas l’« obligation » d’intégrer leur valeur dans le calcul du (des) PageRank, et c’est l’impact d’un lien sur les calculs qui est le plus coûteux.
Est-ce qu’avoir 50 % de liens nofollow est mieux qu’en avoir 30 % ?
On pourrait se dire, par exemple, qu’une façon de passer sous le radar serait de diluer ses liens en AJOUTANT du lien NOFOLLOW au lien DOFOLLOW. Mais si on reprend le raisonnement économique de Google, il est possible que cela ne dure que jusqu’au prochain passage du filtre (si tout le monde ajoute du nofollow pour diluer, le problème de départ de Google n’aura pas été résolu).
Toutefois, le profil global des liens est examiné. Mais comprenons bien que si tout le monde fait cela, le curseur sera plus bas la prochaine fois, au prochain filtrage.
Par contre, honnêtement, la curation, c’est génial… La popularité gagnée vaut vraiment la peine en terme de visibilité, et d’ailleurs, n’est-ce pas cela au fond le principal : offrir de la visibilité à son site ? Google ou ailleurs, peu importe où, mais être visible !
Et le contenu dupliqué, par exemple sur scoop.it ?
Je pense qu’il y a un risque si on publie via un flux RSS directement ses excerpts sur scoop.it.
Mais l’idée n’est pas forcément de publier automatiquement, tout le temps : pourquoi ne pas développer un propos, une humeur, un point de vue de quelques lignes pour accompagner votre lien dans scoop.it ?
La plate-forme est géniale en terme de viralité. Si vous pimentez un peu vos liens, vos obtiendrez des résultats étonnants. Je constate, par ailleurs, que Google voit les liens de scoop.it (ils sont dans les GWT). Qu’en fait-il ? C’est difficile de savoir, mais il les voit.
Le seul prix à payer est de metImages libres de droit, source photl.com tre un petit texte original avec une vraie valeur ajoutée. Du même coup, le contenu dupliqué se limitera à ce petit texte et ne viendra pas dupliquer votre site.
Par ailleurs, avec du trafic ne provenant pas uniquement de Google, cela améliorera sans doute vos positions dans Google, car Google aime bien quand un site est vivant et a du trafic, cela fait partie de ses critères de pertinence depuis longtemps…
En guise de conclusion
Non Google n’en veut pas aux SEO. Il s’en tape, c’est très différent.
Oui, il faut faire naturel et pourquoi ne pas l’être, ce n’est pas mal aussi.
La curation prend un peu de temps, mais vous le rend bien en trafic et en visibilité…
Le référencement devient visibilité, est-ce un mal ?
…….
Passionnée par le référencement naturel et la rédaction web ! Blogueuse depuis 2012 ! Coauteur du livre “Techniques de référencement web” et “Stratégie de contenu e-commerce”.
Découvrez mes “Prestations SEO” et contactez-moi pour échanger sur votre projet SEO.
Un grand merci à Alexandra pour l’accueil sur son blog 🙂
Salut,
j’ai bien aimé ta prose Christian. C’est limpide, concis, bref ça va à l’essentiel ! 🙂
Par contre, je ne suis pas un fervent utilisateur de Scoop.it bien que j’ai intégré un bouton de partage au sein de mes articles …
Concrètement, je préfère passer par Tumblr pour une raison qui est sûrement lié au fait que j’ai commencé par cet outil.
Mais, j’entends tellement parler de Scoop.it que je sens que je vais tester un de ces 4.
Sinon, je te rejoins complètement sur le fait que Google se moque de ce qui peut nous arriver et tout ce qui l’intéresse, c’est d’augmenter son profit.
D’ailleurs, j’avais fait un article là-dessus résumant bien mon ressenti de l’époque que je met en lien ci-dessus.
Pour finir, j’en profite pour remercier Alexandra de t’avoir proposer cette tribune ! 😉
Nicolas Augé Articles récents..Retour sur les clés du SEO 2013
Hello,
Très bon article dans sa globalité. Je rejoins les propos tenus sur Scoop.it. C’est vraiment un vrai vecteur de flux avec une grande viralité. Je pense que le jeu en vaut la chandelle mais s’il y a un risque de duplicate content. De toutes façons, c’est impossible de se paraphraser à chaque fois surtout quand on ne fait que de relayer des articles comme le font beaucoup. Personnellement, l’approche que j’ai développé pour Scoop.it est de me tenir à un thème bien précis. Ainsi on ne retrouve pas l’entièreté de mes contenus sur une plateforme de plus…
Comme d’habitude une vision très intéressante.
Merci beaucoup Christian pour cet article de qualité, j’espère que beaucoup vont y réfléchir et que les autres iront aussi te lire sur ton blog pour apprécier pleinement le potentiel de ta vision !
Merci Alexandra pour cet excellent guest 😉
Bonjour Christian,
Article très intéressant qui prouve que Google n’est pas forcément con et méchant.
En plus de dix ans, il est clair que celui-ci a pu créer nombre de système complexe pour repérer et contrer tout ce qui a été mentionné ci-dessus voire plus.
Je pense que la plupart des gens, référenceur ou non, ne se mettent pas à la place de cette grosse multinationale.
Sans vouloir défendre celui qui nous fait en grosse partie vivre.
Google propose des services, il lui appartient d’entretenir ses données comme le ferait chacun de nous dans la vie de tous les jours.
Par exemple, quand vous voulez manger du pain, vous triez pour ne pas avoir de pain rassie, vous éliminez l’intrus qui vous gêne afin de faire votre meilleure action.
Quand vous manger et que vous trouvez un cheveu dans une assiette, vous le virez automatiquement… C’est quelque chose qui n’étais pas censé être là et qui vous empêche de continuer.
Et ben pour le grand Google c’est pareil, il y a des centaines de milliers de créateur de site, référenceurs, etc..qui au fil des années, ont développer des intrus au tel point que le web s’en retrouve surchargé.
Total, Google a décidé de mettre les mains dans le cambouis pour palier à ce problème récurrent. Certes, il pénalise des sites qui sont honnête… Mais comment auriez vous fait ? On en a tous trop profité à mon goût pendant que les portes était ouvertes.
Enfin ce n’est que mon avis, je suis surement à côté de la plaque.
Merci en tous cas pour cet article et merci à Alexandra pour l’avoir invité !
Comme souvent avec Christian, l’article est complet et d’un excellent niveau.
Le point de vue est de plus original : nous parlons tous de guerre Google/SEO et pourtant, l’argument de réduction des coût machine est tout autant valable, sinon plus.
Concernant Scoop.it, comme tous les outils, ce n’est pas l’outil qui est en cause mais l’utilisation qu’on en fait. A nous de faire attention donc.
Toujours très intéressant les articles de Christian.
Et cette fois, j’ai même eu l’impression qu’il a essayé d’être plus concis qu’à l’habitude, allant droit au but. Cette fois, celui qui me dit qu’il n’arrive pas à suivre ses propos, il faut qu’il arrête définitivement de lire son blog !
Pour la curation, c’est un point que j’avais laissé tombé mais dont je me dis depuis des semaines que je devrais m’y remettre. En effet, l’automatisation (flux rss) que je voulais appliqué par manque de temps et le côté cannibale de scoop.it (avec le DC) m’avait refroidi. Maintenant, comme avec une page Facebook, il faudrait se caler 10 minutes chaque jours pour l’utiliser à bon escient. Ce n’est plus qu’une question de velléités…
Merci pour cet article et pour tous les autres….Comme quoi Google n’est pas forcément contre les référenceurs , lorsque ces derniers vont dans le “bon sens”. Dommage que ce bon sens soit défini uniquement par Google…
Tout à fait d’accord sur le fait qu’un bon pourcentage de nofollow (40%) permet de passer sous les radars et de mettre le doute dans la tête de google quant à une éventuelle suroptimisation; mais je rajouterai que cette limite invisible n’est pas la même pour tout le monde, selon la niche (poker, voyance ou tricot),l’ancienneté, etc… et qu’il existe un”karma” pour chaque site ce qui le rend unique en terme d’expérience seo.
@tous, merci d’avoir aimé ce article
Pour Google, il n’y a pas x sites web, il y a un organisme formé par la totalité du web.
Quand une personne a un “virus”, elle se prend un antibiotique. Certaines cellules sont atteintes, par effet collatéral, mais l’organisme est sauvé (ou en voie de guérison), et c’est la seule chose qui compte pour le malade…
Salut “Christian” et Alexandra,
Un guest fusionnel qui dépote ma parole.
J’en reste sur le cul comme un rond de Flan.
Très pertinente comme analyse et comme vision de la chose (GG en l’occurrence).
Quelle qu’en soit la raison (morale ou financière) les deux voix sont justifiées et justifiables. Ainsi, que ce soit dans un état d’esprit éthique ou purement financier de la part de Google, tout le monde comprendra aujourd’hui ou demain à quel point le web français et internationale a besoin d’une purification quasi inquisitioniste, sur une base de politique saine, si je peux me permettre cette idée paradoxale.
Merci pour cette contribution.
Thomas Deboudt
Christian, j’aime beaucoup tes réflexions et ton raisonnement sur Google, le référencement, et n’importe quel sujet en général. Contrairement à tout ce que l’on peut lire de part et d’autres, ton approche des choses est plus logique, concrète et lucide, elle nous permet d’avoir une meilleure perception des problématiques du référencement et d’avoir ainsi plus de recul face aux diverses évolutions dans ce secteur mouvant. Il est vrai qu’on peut facilement y perdre son latin mais heureusement tes réflexions nous ouvrent les yeux, nous rendent plus optimistes et nous remettent, d’une certaine façon, sur le droit chemin. Merci très sincèrement !
Bonjour Christian, bonjour Alexandra,
Félicitations pour cet article qui m’interpelle.
J’essaie de me mettre à la place de l’internaute que je suis d’ailleurs :
En tant qu’internaute lambda j’utilise régulièrement les outils de Google. Pour preuve de l’utilité de Google pour les internautes regardez le numéro hors-série de 01net du mois d’octobre. Tout le magazine est consacré à Google sans aucune critique : dans l’édito on parle de « secret de Google, de réactivité sans faille et de capacité à devancer l’attente des utilisateurs ».
En tant que responsable de sites web les positions de Google m’énervent, ainsi, par exemple, je suis décontenancé quand Google abandonne Google Reader et mécontent quand Google passe tous les mots clés en not provided.
C’est clair que Google se fout complètement des internautes et des référenceurs, il ne s’intéresse qu’à ses bénéfices. Cela peut d’ailleurs devenir progressivement son point faible. Je pense que son image se détériore déjà un peu avec son comportement fiscal.
Je souhaite poser une question à Christian : Comment se fait-il que l’on reçoive toujours des milliers de commentaires totalement spammy contenant des dizaines de liens. Si des webmasters continuent de faire ce type de travail c’est que cela marche toujours, au moins un peu et au moins quelques temps. J’ai pourtant l’impression que Google pourrait pénaliser immédiatement les sites présentant ce type de spam tellement évidents ! Je ne vois qu’une explication : il y a encore des failles dans l’algorithme de Google.
Concernant scoopit j’ai un avis exactement inverse :
En tant qu’internaute scoopit m’énerve. A chaque fois que je clique sur un lien scoopit dans twitter par exemple, cela ouvre 2 onglets supplémentaires. J’évite d’ailleurs de cliquer sur ces liens, il y a même quelque temps je boycottais carrément. Sauf si je suis un cas particulier je pense que scoopit devrait revoir sa stratégie.
En tant que petit webmaster, j’ai l’impression que scoopit est intéressant. J‘ai peur du duplicate, mais Alexandra a prouvé que cet outil apportait (au moins pour le moment) des visites supplémentaires non négligeables (et non Google dépendantes).
Je pose de nouveau ma question à Alexandra et à Christian, si scoopit est utile pourquoi ne mettez-vous pas un bouton de partage en bas de vos articles (ni de lien en haut de vos pages).
Maxime
Intéressant point de vue… finalement on bosse pour de la visibilité et pourquoi pas travailler le netlinking dès le départ dans cet optique. C’est sur un lien cliqué vaut mieux qu’un lien non cliqué.
Par contre, certains points me laissent perplexe, je ne sais pas trop quoi penser.
1- Concernant la détection de sites spammy en analysant la cohérence trafic / fréquence de publication…
Si je comprends bien, Google croiserait les données du trafic et celles des fréquences de publication ? Je veux bien, mais dit comme ça, franchement l’argument me paraît un peu light pour l’affirmer avec autant de certitudes. D’ailleurs, comment Google connaît-il le trafic d’un site web ? (Google analytics ? … et si on installe un autre système de statistiques ? Il est bien avancé Google…). Pour en finir avec cet histoire de trafic, Matt Cutts a dit a plusieurs reprises que les données issues de GA n’étaient pas utilisées par l’équipe anti-spam… C’est pas parce que Matt Cutts la dit que c’est forcément vrai… Christian Méline nous dit qu’en lutte anti-spam Google utilise ces données… j’aimerai juste savoir pourquoi es tu convaincu de cette info ?
Que les plateformes de communiqués de presse classiques soient grillées, ça je mange, comme tu l’as dit rien que le signal laissé par les liens sortants est généralement gros comme une maison sur ce type de site.
2- “Il sait reconnaître une title de bourrin, d’une title normale” Question : C’est quoi la différence entre une title de bourrin et une title normale ? C’est intéressant de savoir comment Google s’y prend pour les différencier car de nos jours, même les bourrins font des phrases et ont arrêté le keyword stuffing.
3 – A propose des liens Nofollow : “je ne suis pas obligé de consommer des ressources machine pour évaluer le poids du lien, mais je note quand même que ce lien existe”… Est ce que je dois comprendre que Dofollow signifie inversement “je suis obligé de consommer des ressources machine pour évaluer le poids du lien” ?
@Le Muy
sauf si tout le monde le fait !
@thomas
j’espère que tu ne t’es pas fait mal 😉
@Sandrine
encore, encore… 😉
sincèrement, merci beaucoup
@Maxime
Pour le bouton de partage scoop.it, oui effectivement ce serait cohérent d’avoir un bouton de partage sur le blog.
De mon côté, j’ai un bouton dans le navigateur lui-même. J’imagine que les internautes l’ont aussi quand je vois que l’on attrape 500 à 1000 liens scoop.it à chaque billet…
@Light On SEO
Pour le 1
Il sait le faire, par exemple le trafic qui passe par… Google lui-même…
Pour le 2
Le bourrin sait aussi te faire une balise TITLE avec juste 2 mots, ultra-optimisé. Mais le TITLE n’est qu’un exemple parmi d’autres ici.
Pour le 3
Si le lien est dofollow, c’est GG qui s’oblige lui-même à le suivre (c’est son algo).
Donc, à un moment ou un autre, le “surfeur aléatoire” passera par là et Google devra sortir la calculette et stocker les résultats pour les pages suivantes de son surf.
Si le site est pénalisé par contre, il ne fera pas.
Hello Christian,
En réalité on s’en fiche que Google sache le faire, ce qui nous intéresse c’est si il le fait ou non. Comme tu le disais Google est aussi dans une logique d’économie de ressources, cela veut dire qu’il y a pleins de choses qu’il pourrait faire mais qu’il ne fait pas, justement parce que ça coûte trop cher. Enfin bref tout ça pour dire que “Google sait le faire” ça signifie pas que “Google le fait”.
Google analyserait donc le trafic qui passe par lui même, pour finalement décider de t’envoyer ou non plus de trafic ? 🙂 C’est pas un peu tordu comme concept ?
Imagine, un site contenant du contenu de qualité, mais mal optimisé, donc pas assez de trafic Google par rapport à son potentiel, Google le considérerait comme spammy ?
Ce n’est pas nouveau : Google regarde si ton résultat dans les SERP est tapé pour ajuster son positionnement au cas où il est jugé non pertinent par les internautes…
Tiens, fais une expérience :
– achète un nom de domaine (neuf ou ancien, mais qui n’a jamais eu les GWT)
– ne monte pas les GWT ni GA
– mets en ligne
– obtiens du trafic via les SERP
– 6 mois après, tu branches les GWT, toujours pas GA
Curieux non le trafic dans les GWT : il a tout le trafic depuis que ton site est ouvert, bien avant que les GWT soient montés.
À ton avis, il vient d’où ce trafic indiqué ?
Il me semble que sur Scoop it on peut réécrire les post donc pourquoi mettre sur flux rss scoop it est une bonne plateforme même si c’est du Nofollow mais aujourd’hui il en faut du nofollow c’est naturel et ca ramène du trafic ce qui est encore plus important je trouve.
Trés intéressant ton article Christian, comme d’habitude tu as un point de vue ouvert, vraiment différent de ce que l’on retrouve normalement, bravo !
Tout a fait d’accord Christian quand vous avez dit Google n’aimerait pas les référenceurs, Google est devenu notre ennemi qui essaye virer tous les seo et reste le seul monopoliste dans le web.
C’est un excellent raisonnement que tu as là Christian, je pense tout à fait comme toi, Google reconnait les sites internet qui ont un SEO à leur coté et s’en fiche royalement. Je dirais même qu’il est du coté des SEO: c’est grâce à eux que les sites internet sont adaptés pour le moteur de recherche, le SEO “machent” le travail de Google puisque son travail est de faire en sorte que le Crawler comprenne plus facilement la thématique d’un site internet. Certes il y a des “Black SEO” qui abusent sur les liens en envoyant 30 000 liens vers leur site (via des prestations à l’étranger en général) et c’est justement contre ce genre de profil que Google se bat. Le “white SEO” qui va s’appliquer a travailler ses mots clés, ses URL, son maillage interne et mettre tous ses liens manuellement sur la toile pour faire connaître son site internet ne sera pas pénaliser, au contraire c’est tout à fait naturel.
Cela n’est que mon point de vue, mais je pense comme toi que Google n’a rien du tout contre les SEO.
Merci pour ton article, tes arguments sont très pertinents.
Salut Christian,
Encore une fois, si Google a les moyens d’avoir la data ne signifie pas qu’il l’utilise… pour cette fameuse question de ressources, mais aussi parfois en raison de la fiabilité de la data.
Sauf erreur, GWT te donne uniquement le trafic envoyé par Google, même si tu n’as pas installé GA, cela n’a rien de surprenant t’est pas d’accord ?
Autre chose, la plus grosse partie du search c’est la longue traîne. Je pense ne pas prendre trop de risques en disant qu’être positionné 6ème sur une expression longue traîne, ça équivaut à 0 trafic depuis Google… Pas forcément parce que le site n’offre pas de réponse adéquate à la requête, mais juste à cause du manque de visibilité dans la page de résultat.
En résumé pour la plus grande partie du search, si les impressions ne se transforment pas par des visites, ce n’est pas à cause de la qualité mais à cause du manque de visibilité dans la page de résultats. Je vois donc difficilement comment Google peut utiliser le trafic envoyé comme un critère de qualité fiable et investir de la ressource là dessus.
Bonjour,
Merci pour votre article. Il semble que vouloir à tout prix continuer de gérer ses sites en fonction de cette société chez qui tout est faussement gratuit, n’a plus de sens. Sans les mots-clefs, gg analytics est devenu quasi inutile. Google a inventé le métier de référenceur, puis il l’a détruit. Il s’agit donc désormais de le réinventer sans lui! Se passer des outils GG est difficile, mais pas impossible. Si Google devient nuisible, éjectez-le en commençant par ne plus lui permettre d’analyser votre trafic, de suivre vos visiteurs, etc. Il existe toujours de bons vieux outils gratuits qui donnent des statistiques plus fiables en nombre de visites et il a beaucoup d’autres solutions pour promouvoir ses sites. On peut aussi enlever tous les boutons de partage qui permettent à GG, FB, Twt et les autres d’espionner les visiteurs des sites. GG doit sa notériété et sa fortune aux référenceurs et webmasters qui furent les premiers à s’y intéresser. Ce que l’on a fait, on peut tout aussi bien le défaire!
Donc si j’essaie de résumer la situation, pour éviter que GG décide à notre place de nous envoyer ou non du trafic, nous avons tout intérêt à ne pas lui tendre la perche en intégrant tout un tas d’espions dans notre site.
OK il y a des outils gratuits qui permettent d’obtenir bons nombre de statistiques de qualité, et la promotion du site peut être envisagée de diverses façons. Mais cela marche-t-il réellement et arrive-t-on au final au même résultat qu’avec intégration des outils GG ?
Très bon article et qui résume très bien les arbitrages SEO qu’il faut faire au quotidien. Un vrai numéro de funambule. J’ai lu un article de Matt Cutts sur le guest blogging hier, j’ai cru m’arracher les cheveux… mettre du dofollow semble être devenu un crime passible de la peine capitale !
Pour aller sur le sujet de la diversification des canaux web d’entrée, j’ai rédigé cet article que je vous invite à consulter : Même si je suis d’accord sur le fait qu’il doit être au coeur de la stratégie web, je pense qu’il faut savoir différencier les canaux d’entrée, varier le trafic.
En complément, je vous laisse le lien de cet article : http://www.winsiders.fr/blog/seo/strategies-visibilite-web
(Niveau d’approche assez “novice” mais qui résume l’approche possible d’une stratégie globale). A+