Vous êtes ici : Miss SEO Girl » Articles invité » Demande de réexamen : les retours de la Google’s Webspam Team

Demande de réexamen : les retours de la Google’s Webspam Team

lije-creativeLa plupart d’entre vous me connaissez sous le pseudo LIJE Creative, je m’appelle Jérôme LILLE, je suis Freelance est je travaille également pour une agence SEO à Strasbourg. J’ai un blog sur lequel je publie assez régulièrement ainsi qu’un lab comportant de petits scripts à la portée de tous. Si vous souhaitez entrer en contact avec moi, vous pouvez le faire via mon site ou mon compte Twitter, n’hésitez pas.


Souvenez-vous il y a quelques jours, Matt Cutts nous expliquait un peu plus en détail dans l’un des plus longues vidéos qu’il n’est jamais fait de la composition des équipes de combat contre le spam de Google et de leur travail de tous les jours.

Image de prévisualisation YouTube

On comprend rapidement que Google souhaite couper la mauvaise herbe à la racine mais qu’il n’y a pas d’algorithme miracle pour combattre le spam sous toutes ses formes. C’est pourquoi Google a sorti Penguin en 2012, pour contrer une certaine forme de spam par exemple. D’ailleurs, la toute dernière nouveauté est la capacité de détecter du spam de Rich Snippet.

Pour en revenir à cette notion de spam, je la trouve personnellement encore un peu obscure. On tombe parfois sur des sites qui ont des positions de folies mais qui pourtant ont une optimisation On-Site vraiment abusée et un profil de liens à coucher dehors… Sylvain Peyronnet s’était aussi penché sur la question en 2013 d’ailleurs. Les liens que Google nous donne dans les demandes de réexamen permettent de voir un peu plus en détail.

Google, dis-moi tout

Les liens issus de demandes que j’ai eu l’occasion de faire au sein de l’agence SEO dont je vous parlais dans mon intro pour des clients ou d’anciens clients permettent de voir un peu plus ce que Google leur reprochait. Pour éviter d’avoir un quelconque lien vers ces sites sous surveillance et de ne pas révéler l’identité de ces clients, aucun lien ne sera donné directement.

Les Web 2.0

La première catégorie de sites qui m’ont été donnés de voir sont des web 2.0. Jimbo par exemple, permet de créer des sites gratuitement. La plupart du temps, ils comportaient peu de pages, et chaque page comportait un seul texte avec 1 à 3 liens. Une typologie commune facile à détecter.

J’utilise encore pas mal les CP comme source de liens donc j’espère que Google ne va pas aller jusqu’à tous les pénaliser. Mais il faut dire que ces mini-sites étaient particulièrement mal soignés.

Il y avait aussi des Over-Blogs, plateforme de blogging massivement spammée. Bien que les articles étaient longs comme le bras, ils comportaient bien souvent une trop grande quantité de liens (plus de 100 et aucun d’entre eux n’étaient en nofollow). Je note qu’il y avait néanmoins un travail de dissimulation dans ces articles parce que le prestataire avait inséré une dizaine de liens Wikipedia, une dizaine de liens Youtube et une dizaine de liens vers d’autres spots du client.

Pour information, j’ai aussi reçu des liens de Skynetblogs[.]be, bloguez[.]com, mabulle[.]com, Jimdo, etc. Les web2.0 sont dans le collimateur et bien connus de Google.

Les annuaires

Hervé d’Infiniclick sera le premier à le confirmer. Les annuaires sont aussi la cible de Google. Mais il y a annuaire, et bon annuaire. Dans mon cas personnel, la majorité des annuaires concernés avaient un Trust Flow inférieur à 25 et un PR variable de 0 à 2. Ceci dit, j’ai aussi eu des liens d’annuaire de PR4 et Trust 39.

Autre point à noter, ces annuaires avaient une limite de contenu minimum bien trop faible. Quelque chose comme 255 caractères. Il faut partir sur des textes de plus de 800 caractères pour avoir un bon lien contextualisé.

Pour finir, inscrire un site français avec une description française dans un annuaire purement anglophone n’a pas d’intérêt sauf si vraiment c’est la perle des annuaires. Mais j’ai eu nombre de liens d’annuaires américains pour des sites français.

Tous ces annuaires avaient un point commun : ils avaient plusieurs centaines de milliers de backlinks. Est-ce qu’il y a une corrélation entre le nombre de backlinks et le fait qu’ils soient pénalisés ?

Les proxys web

C’est la petite surprise. J’ai été étonné de voir un lien vers un proxy web. C’est un site qui permet de récupérer le contenu d’un site cible en masquant votre identité. Du coup, il peut générer un contenu dupliqué de l’intégralité d’un site

C’était bien connu pour du NSEO et ça a l’air de toujours fonctionner. Vous pouvez vous en prémunir partiellement en ajoutant ce code dans votre htaccess :

RewriteEngine on
RewriteCond %{HTTP:VIA}                 !^$ [OR]
RewriteCond %{HTTP:FORWARDED}           !^$ [OR]
RewriteCond %{HTTP:USERAGENT_VIA}       !^$ [OR]
RewriteCond %{HTTP:X_FORWARDED_FOR}     !^$ [OR]
RewriteCond %{HTTP:PROXY_CONNECTION}    !^$ [OR]
RewriteCond %{HTTP:XPROXY_CONNECTION}   !^$ [OR]
RewriteCond %{HTTP:HTTP_PC_REMOTE_ADDR} !^$ [OR]
RewriteCond %{HTTP:HTTP_CLIENT_IP}      !^$
RewriteRule ^(.*)$ – [F]
RewriteCond %{HTTP_USER_AGENT} AppEngine [NC]
RewriteRule .* – [F]

Testez quand même le code, certain proxy passent sans broncher. Cette solution à l’avantage d’éviter d’avoir 4000 lignes dans votre htaccess juste pour bloquer les proxys web : http://notepad.cc/mezbawe90

Wiki, sites dynamiques hors thématique plein de nuages de liens, sites piratés, pages orphelines, profil de site, j’ai eu l’occasion de tout voir. Donc un conseil, essayez au maximum de faire ça bien. Il y a des spots et des façons de faire tellement flags que c’est comme envoyer un email directement à Google pour leur demander de vous pénaliser.

Please wait...

13 réflexions au sujet de « Demande de réexamen : les retours de la Google’s Webspam Team »

  1. Salut Jérôme,

    Honnêtement, ces spots puent le spam au premier coup d’oeil. Ce sont des sites sur des plateformes gratuites, des liens avec ancres exact match, des annuaires à 255 caractères avec titre/ancre exact match. Que Google les considère comme des spots pourris ne m’étonne pas le moins du monde !

    Sur l’exemple de l’article où on retrouve 147 liens, combien de mots fait le texte ?

  2. Cela semble démontrer qu’il faut à la fois faire attention aux liens entrants et sortants non ? On ne peut plus être amateur sur le web en 2014, c’est ce que je retiens de tout ça : un webmaster, et même un “simple” blogueur, doivent savoir exactement ce qu’ils font avec leurs liens. Sinon ils tombent sous la présomption de culpabilité. Par défaut tout le monde est coupable aujourd’hui…
    Pierre Articles récents..Coaching MilanoMy Profile

  3. Bonjour,
    A mon humble avis, il doit sûrement y avoir un ratio pages / backlinks à ne pas dépasser. De toutes manière, il vaut mieux choisir ses annuaires en fonction de leur qualité, c’est à dire 1 à 2 liens max par page vers son site que l’on peut insérer dans le texte si on le souhaites. 1500 caractères minimum, présence de H1, H2, H3. Pas plus de 15 liens DF et 35 liens internes sur la page.

  4. J’ai lu votre article avec attention, merci pour le partage ! Toutefois, je pense que la grande partie des individus pratiquant le référencement en a assez, de ces sites qui pratiquent des mauvaises méthodes (black hat seo) qui nuient souvent à des sites honnêtes et représentant une source d’infos pour les internautes. Il faut continuer à lutter contre cette minorité !
    Romain@maigrir vite Articles récents..Maigrir avec Orlistat, un médicament pour perdre 3 à 4 kilos rapidementMy Profile

  5. La seule solution pour avoir une bonne position il faut tout d’abord optimiser le site puis chercher des annuaires et des blogs ont une relation avec le contexte de ton site.
    Elsa@comparatif banques Articles récents..changer de banqueMy Profile

  6. Hello,

    je suis d’accord avec la partie sur les annuaires, il y a certains détails à faire attention mais on voit toujours des annuaires avec une description simple (genre 100 mots voir moins) et connaître et bon succès.

    (J’en profite si ça intéresse des gens : http://www.questionreponse.info j’ai fais justement les règles éditoriales dans ce sens.)

    Merci pour le code htaccess je connaissais pas du tout cette manip je vais la tester du coup.

  7. Merci pour cet article. C’est vrai que du coup les liens entrants deviennent vite aussi une problématique. Il ne faudrait jamais passer par la case novice avant de décider d’éditer du contenu sur Internet en nom propre sous une entité quelconque. “Ne passez pas par la case Départ et payez 20 000€”… Personnellement c’était justement notre démarche, avec une camarade de cours (je sors d’une formation e-business), de monter le site Trafic-pour-noobs, pour apprendre en faisant… En gros ça ne se fera plus bientôt… Plus de fraîcheur, que des ultra-experts, ce n’est pas un peu dommage ?

  8. Merci Jérome pour cet article intéressant,

    J’avoue honnêtement que je ne connaissais pas le dernier point sur les proxy qui permettent de scaper un site à la volée. J’avoue que ca m’inquiète un peu ! lol

    Merci encore !

  9. Je tiens à te remercier Jérôme pour nous avoir disposé de cet article,

    Sincèrement, je reconnais le proxy permet d’éviter qu’une adresse IP directement bani et peut offrir des résultats meilleurs. Mais d’être toujours contraint de passer par des proxy m’angoisse un tout petit peu.

    Merci et bon courage !

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

CommentLuv badge

Les liens des commentaires peuvent être libérés des nofollow.