La plupart d’entre vous me connaissez sous le pseudo LIJE Creative, je m’appelle Jérôme LILLE, je suis Freelance est je travaille également pour une agence SEO à Strasbourg. J’ai un blog sur lequel je publie assez régulièrement ainsi qu’un lab comportant de petits scripts à la portée de tous. Si vous souhaitez entrer en contact avec moi, vous pouvez le faire via mon site ou mon compte Twitter, n’hésitez pas.
Souvenez-vous il y a quelques jours, Matt Cutts nous expliquait un peu plus en détail dans l’un des plus longues vidéos qu’il n’est jamais fait de la composition des équipes de combat contre le spam de Google et de leur travail de tous les jours.
On comprend rapidement que Google souhaite couper la mauvaise herbe à la racine mais qu’il n’y a pas d’algorithme miracle pour combattre le spam sous toutes ses formes. C’est pourquoi Google a sorti Penguin en 2012, pour contrer une certaine forme de spam par exemple. D’ailleurs, la toute dernière nouveauté est la capacité de détecter du spam de Rich Snippet.
Pour en revenir à cette notion de spam, je la trouve personnellement encore un peu obscure. On tombe parfois sur des sites qui ont des positions de folies mais qui pourtant ont une optimisation On-Site vraiment abusée et un profil de liens à coucher dehors… Sylvain Peyronnet s’était aussi penché sur la question en 2013 d’ailleurs. Les liens que Google nous donne dans les demandes de réexamen permettent de voir un peu plus en détail.
Google, dis-moi tout
Les liens issus de demandes que j’ai eu l’occasion de faire au sein de l’agence SEO dont je vous parlais dans mon intro pour des clients ou d’anciens clients permettent de voir un peu plus ce que Google leur reprochait. Pour éviter d’avoir un quelconque lien vers ces sites sous surveillance et de ne pas révéler l’identité de ces clients, aucun lien ne sera donné directement.
Les Web 2.0
La première catégorie de sites qui m’ont été donnés de voir sont des web 2.0. Jimbo par exemple, permet de créer des sites gratuitement. La plupart du temps, ils comportaient peu de pages, et chaque page comportait un seul texte avec 1 à 3 liens. Une typologie commune facile à détecter.
J’utilise encore pas mal les CP comme source de liens donc j’espère que Google ne va pas aller jusqu’à tous les pénaliser. Mais il faut dire que ces mini-sites étaient particulièrement mal soignés.
Il y avait aussi des Over-Blogs, plateforme de blogging massivement spammée. Bien que les articles étaient longs comme le bras, ils comportaient bien souvent une trop grande quantité de liens (plus de 100 et aucun d’entre eux n’étaient en nofollow). Je note qu’il y avait néanmoins un travail de dissimulation dans ces articles parce que le prestataire avait inséré une dizaine de liens Wikipedia, une dizaine de liens Youtube et une dizaine de liens vers d’autres spots du client.
Pour information, j’ai aussi reçu des liens de Skynetblogs[.]be, bloguez[.]com, mabulle[.]com, Jimdo, etc. Les web2.0 sont dans le collimateur et bien connus de Google.
Les annuaires
Hervé d’Infiniclick sera le premier à le confirmer. Les annuaires sont aussi la cible de Google. Mais il y a annuaire, et bon annuaire. Dans mon cas personnel, la majorité des annuaires concernés avaient un Trust Flow inférieur à 25 et un PR variable de 0 à 2. Ceci dit, j’ai aussi eu des liens d’annuaire de PR4 et Trust 39.
Autre point à noter, ces annuaires avaient une limite de contenu minimum bien trop faible. Quelque chose comme 255 caractères. Il faut partir sur des textes de plus de 800 caractères pour avoir un bon lien contextualisé.
Pour finir, inscrire un site français avec une description française dans un annuaire purement anglophone n’a pas d’intérêt sauf si vraiment c’est la perle des annuaires. Mais j’ai eu nombre de liens d’annuaires américains pour des sites français.
Tous ces annuaires avaient un point commun : ils avaient plusieurs centaines de milliers de backlinks. Est-ce qu’il y a une corrélation entre le nombre de backlinks et le fait qu’ils soient pénalisés ?
Les proxys web
C’est la petite surprise. J’ai été étonné de voir un lien vers un proxy web. C’est un site qui permet de récupérer le contenu d’un site cible en masquant votre identité. Du coup, il peut générer un contenu dupliqué de l’intégralité d’un site
C’était bien connu pour du NSEO et ça a l’air de toujours fonctionner. Vous pouvez vous en prémunir partiellement en ajoutant ce code dans votre htaccess :
RewriteEngine on
RewriteCond %{HTTP:VIA} !^$ [OR]
RewriteCond %{HTTP:FORWARDED} !^$ [OR]
RewriteCond %{HTTP:USERAGENT_VIA} !^$ [OR]
RewriteCond %{HTTP:X_FORWARDED_FOR} !^$ [OR]
RewriteCond %{HTTP:PROXY_CONNECTION} !^$ [OR]
RewriteCond %{HTTP:XPROXY_CONNECTION} !^$ [OR]
RewriteCond %{HTTP:HTTP_PC_REMOTE_ADDR} !^$ [OR]
RewriteCond %{HTTP:HTTP_CLIENT_IP} !^$
RewriteRule ^(.*)$ – [F]
RewriteCond %{HTTP_USER_AGENT} AppEngine [NC]
RewriteRule .* – [F]
Testez quand même le code, certain proxy passent sans broncher. Cette solution à l’avantage d’éviter d’avoir 4000 lignes dans votre htaccess juste pour bloquer les proxys web : http://notepad.cc/mezbawe90
Wiki, sites dynamiques hors thématique plein de nuages de liens, sites piratés, pages orphelines, profil de site, j’ai eu l’occasion de tout voir. Donc un conseil, essayez au maximum de faire ça bien. Il y a des spots et des façons de faire tellement flags que c’est comme envoyer un email directement à Google pour leur demander de vous pénaliser.
Passionnée par le référencement naturel et la rédaction web ! Blogueuse depuis 2012 ! Coauteur du livre “Techniques de référencement web” et “Stratégie de contenu e-commerce”.
Découvrez mes “Prestations SEO” et contactez-moi pour échanger sur votre projet SEO.
Salut Jérôme,
Honnêtement, ces spots puent le spam au premier coup d’oeil. Ce sont des sites sur des plateformes gratuites, des liens avec ancres exact match, des annuaires à 255 caractères avec titre/ancre exact match. Que Google les considère comme des spots pourris ne m’étonne pas le moins du monde !
Sur l’exemple de l’article où on retrouve 147 liens, combien de mots fait le texte ?
Cela semble démontrer qu’il faut à la fois faire attention aux liens entrants et sortants non ? On ne peut plus être amateur sur le web en 2014, c’est ce que je retiens de tout ça : un webmaster, et même un “simple” blogueur, doivent savoir exactement ce qu’ils font avec leurs liens. Sinon ils tombent sous la présomption de culpabilité. Par défaut tout le monde est coupable aujourd’hui…
Pierre Articles récents..Coaching Milano
Bonjour,
A mon humble avis, il doit sûrement y avoir un ratio pages / backlinks à ne pas dépasser. De toutes manière, il vaut mieux choisir ses annuaires en fonction de leur qualité, c’est à dire 1 à 2 liens max par page vers son site que l’on peut insérer dans le texte si on le souhaites. 1500 caractères minimum, présence de H1, H2, H3. Pas plus de 15 liens DF et 35 liens internes sur la page.
Hello Alex 🙂 Merci pour le partage de cet article ! Les quelques exemples sont très parlants, et on voit que malgré les recommandations … certains sites continuent à employer les anciennes (mauvaises) méthodes !
Véronique Duong Articles récents..Qualités et Compétences du Webmarketeur moderne : l’Artiste VS le Scientifique
J’ai lu votre article avec attention, merci pour le partage ! Toutefois, je pense que la grande partie des individus pratiquant le référencement en a assez, de ces sites qui pratiquent des mauvaises méthodes (black hat seo) qui nuient souvent à des sites honnêtes et représentant une source d’infos pour les internautes. Il faut continuer à lutter contre cette minorité !
Romain@maigrir vite Articles récents..Maigrir avec Orlistat, un médicament pour perdre 3 à 4 kilos rapidement
De mon point de vue, GG a surtout mis fin aux pratiques les plus abusives…
Merci pour ton article. S’il y a une règle à respecter dans le SEO, c’est de savoir ou on met notre lien. On ne peut plus se permettre de faire des liens n’importe ou sans faire une petite analyse au préalable des sites et les exemples que tu a donné en témoigne.
sarah@Astuces Facebook Articles récents..Solutions pour gagner à Logo Game sur Facebook
La seule solution pour avoir une bonne position il faut tout d’abord optimiser le site puis chercher des annuaires et des blogs ont une relation avec le contexte de ton site.
Elsa@comparatif banques Articles récents..changer de banque
Hello,
je suis d’accord avec la partie sur les annuaires, il y a certains détails à faire attention mais on voit toujours des annuaires avec une description simple (genre 100 mots voir moins) et connaître et bon succès.
(J’en profite si ça intéresse des gens : http://www.questionreponse.info j’ai fais justement les règles éditoriales dans ce sens.)
Merci pour le code htaccess je connaissais pas du tout cette manip je vais la tester du coup.
Merci pour cet article. C’est vrai que du coup les liens entrants deviennent vite aussi une problématique. Il ne faudrait jamais passer par la case novice avant de décider d’éditer du contenu sur Internet en nom propre sous une entité quelconque. “Ne passez pas par la case Départ et payez 20 000€”… Personnellement c’était justement notre démarche, avec une camarade de cours (je sors d’une formation e-business), de monter le site Trafic-pour-noobs, pour apprendre en faisant… En gros ça ne se fera plus bientôt… Plus de fraîcheur, que des ultra-experts, ce n’est pas un peu dommage ?
Merci Jérome pour cet article intéressant,
J’avoue honnêtement que je ne connaissais pas le dernier point sur les proxy qui permettent de scaper un site à la volée. J’avoue que ca m’inquiète un peu ! lol
Merci encore !
Je confirme, l’info sur le négative SEO via proxy est effrayante.
Merci beaucoup d’avoir partagé un début de solution via le fichier htaccesss !
Je tiens à te remercier Jérôme pour nous avoir disposé de cet article,
Sincèrement, je reconnais le proxy permet d’éviter qu’une adresse IP directement bani et peut offrir des résultats meilleurs. Mais d’être toujours contraint de passer par des proxy m’angoisse un tout petit peu.
Merci et bon courage !