Vous êtes ici : Miss SEO Girl » Interviews » Analysez vos backlinks avec SEOCleaner !

Analysez vos backlinks avec SEOCleaner !

backlinksHello les amis ! Comment allez vous par ce beau temps ?

Recevons aujourd’hui Victor, le développeur de l’outil SEOCleaner, un outil qui vous permet d’analyser votre profil de liens, ou plutôt celui de votre site 🙂

Vous ne connaissez pas l’outil ? C’est normal… Il n’est pas encore sorti, c’est prévu pour la semaine prochaine ! Stay tuned ! En attendant, voici la jolie landing page où le logiciel sera disponible En tout cas, moi j’ai hâte de le tester !

Eh oui, c’est bien une exclusivité sur le blog !! 🙂

Présente-nous SEOCleaner

Le logiciel s’appelle SEO Cleaner, c’est un mineur de données qui va explorer les URLs que vous lui soumettez pour faciliter l’analyse du profil de liens d’un site.

liens-traitesSon fonctionnement est simple, on exporte ses backlinks (Webmaster Tools, Ahrefs, Majestic..) et on les importe dans le logiciel. SEO Cleaner va crawler toutes les pages qui lui sont soumises, les analyser et retourner directement dans son interface des informations pertinentes pour faciliter l’étude de ces liens et un éventuel désaveu. Le contact des responsables des sites est également rapatrié pour modifier ou retirer les liens quand cela est possible.

Les infos retournées sont basées sur celles qu’on utilise habituellement pour juger de la qualité d’une page / domaine, ici l’intérêt est de ne plus avoir à ouvrir et inspecter chaque page : les informations sont directement disponibles dans l’interface (gros gain de temps). Il est possible de générer un fichier Excel pour travailler directement dans son tableur.
crawlLe logiciel extrait plus d’une trentaine de facteurs allant de la densité de mots clés au nombre d’Adsense sur la page en passant par le nombre de liens de la page, les ID Adsense et Analytics, les ancres, les IP, les blockC, etc..

C’est un outil d’aide à la prise de décision, notre philosophie étant de faciliter l’étude du profil de liens, pas d’automatiser tout le travail (les solutions qui le font ne sont pas super efficaces de notre point de vue).

Comment l’idée vous est-elle venue ?

Sylvain (un collègue de l’agence SEO.fr) a un jour fait une macro Excel qui filtrait dans une liste d’URLs la présence de mots comme « viagra », « voyance », etc.

Je me suis dit qu’il serait bien de vérifier la présence de ces mêmes mots dans le texte de la page en question, mais pour ça il fallait coder un crawler. Cela a ouvert pas mal de portes : une fois l’URL crawlée, on pouvait extraire le title, compter le nombre de mots, calculer la densité de mots clés et beaucoup d’autres choses.

Dans un deuxième temps, j’ai fait le tour de tous les outils d’analyse de liens et j’ai noté toutes les informations qu’ils récupéraient. Alors ça été le moment d’ajouter l’adresse IP, le PR, le code de suivi Analytics, l’ID Adsense, le code WMT, etc…

Pour faciliter le contact avec les webmasters afin de leur demander de modifier ou de supprimer des liens, j’ai ajouté à la liste des informations récupérées les adresses email et la page de contact quand cela est possible. Au début il était prévu d’intégrer un suivi des emails envoyés dans l’outil, mais cela n’a pas été retenu.

Tout au long du développement j’ai eu des idées de la part de mes collègues de SEO.fr et de Franck (directeur de l’agence) que ce soit pour les données à collecter ou concernant les fonctionnalités pour gagner du temps. Nombre d’entre elles ont été adoptées et seulement quelques-unes ont étés mises de côté (Alexa, Alexa Country Rank, …). D’ailleurs pour l’anecdote, l’outil s’appelait Link Quality Rater avant que Franck ait l’idée de SEO Cleaner

Quelles sont les motivations qui ont poussé à créer un tel outil?

Apprendre. Se mettre dans la peau d’un crawler et essayer de résoudre les défis que proposent les sites internet est une bonne expérience pour un SEO technique.

Aussi partager. Il y a un an j’avais fait un ersatz de Xenu et je disposais des briques de base pour le crawler, mais l’outil est resté dans le tiroir. Avec SEO Cleaner, je voulais dans un premier temps faciliter mon travail et celui de mes collègues. Ensuite, Franck a proposé de le partager aussi avec la communauté SEO.

90% de ce que j’utilise tous les jours, je l’ai pris ou appris sur internet grâce à des gens comme toi qui génèrent de la valeur avec leur blog. Partager SEO Cleaner c’est une façon de donner en retour à la communauté.

L’outil, est-il une solution pour échapper à Penguin ?

google-penguinSEO Cleaner essaie de donner un maximum d’informations pour se faire une idée des liens que reçoit un site et découvrir ce qui cloche.

Il est plus facile de rester hors de la route de Penguin quand on sait ce qu’il y a dans la marmite (et qu’on œuvre en conséquence).

Pour les gens qui découvrent le référencement, nous voulons indiquer que l’outil sera présenté dans les ateliers gratuits de seo.fr dédiés aux pénalités Penguin.

Concrètement, comment ça fonctionne ?

Il suffit de fournir à l’outil deux informations :

  • Une liste d’URLs avec des liens vers votre site. Par exemple, celle qu’on peut exporter sur Webmaster Tools.
  • Indiquer le domaine qui reçoit les liens.

SEO Cleaner va alors vérifier s’il y a bien au moins un lien dans chaque URL pointant vers le domaine (ce n’est pas toujours le cas avec les listes de WMT), si la page est indexable, si le lien est nofollow et plein d’autres données pour vous aider à décider si le lien est mauvais pour votre profil ou pas.

A la demande de mes collègues, il y a une estimation très sommaire de la “toxicité” du lien, mais vous êtes vivement encouragés à modifier ces appréciations très limitées et automatiques, car c’est vraiment difficile de ne pas avoir des faux positifs.

Quelles sont les données analysées par l’outil ?

criteres

L’analyse automatique vérifie les signaux communément acceptés comme “suspects” et aussi des points plus basiques dont :

  • Présence d’un lien vers le domaine saisi,
  • Si l’URL indiquée existe toujours,
  • Si le lien est nofollow,
  • La présence de mots “suspects” dans l’URL ou dans le contenu,
  • La longueur du NDD,
  • Le nombre de tirets dans le nom de domaine,
  • Le nombre d’Adsense,
  • Le nombre de liens sortants de la page,
  • Etc…

Ce qui est important c’est que vous pouvez paramétrer l’importance de ces critères et surtout, vous êtes encouragé à rester méfiant de tout diagnostic automatique.

Est-ce que les critères sont triés par importance ?

Les critères utilisés pour la notation sont limités, mais ils ont l’avantage d’être paramétrables : vous pouvez les modifier selon le projet et vos propres convictions. En tout cas, une vérification manuelle des données sera toujours plus précise.

Quels sont les principaux avantages de l’outil ?

C’est un outil d’aide à la prise de décision qui vous présente pour chaque URL testée des informations concernant :

  • Le domaine (pays, extension, …)
  • Le contenu de la page (indexable ou pas, densité de mots, présence de mots “suspects”, …)
  • Les traces de réseaux (id adsense, tracker analytics, compte WMT, …)
  • Des informations sur les liens eux-mêmes (ancre, nofollow, images, alt, …)

seocleaner-04-statsseocleaner-06-stats

seocleaner-05-stats

Un très bon point est la possibilité d’exporter toutes les données en Excel bien rangées dans des onglets, ce qui permet de les triturer à loisir. D’autres fonctionnalités sympathiques sont disponibles comme la possibilité de constituer la liste de désaveu avec l’outil et, enfin, quelques jolis graphiques pour faire un survol rapide du profil.

Actuellement en bêta, quelles sont les évolutions futures de l’outil ?

Cela dépendra en grand mesure des évolutions de Penguin et des demandes de mes collègues de SEO.fr. Je suis également ouvert à toute idée pouvant l’améliorer.

Coté analyse des données collectées il y a beaucoup de choses à faire en Machine Learning et NLP.

Sinon, j’ai une demi-douzaine de pistes d’amélioration dont :

  • L’intégration d’informations de l’API SEMRush, idée déjà testée de façon isolée.
  • L’évaluation des liens en prenant en compte la globalité des liens.
  • Trouver le moyen de suivre les redirections JavaScript sans faire appel à une grosse bibliothèque.

Je pense qu’il restera toujours en bêta car avec les évolutions constantes de Google il faudra l’adapter constamment.

L’outil est-il mis à disposition gratuitement des webmasters ? Va t’il rester gratuit ?

Oui, du moins cette version le restera.

La stratégie netlinking après Pinguin : que faut-il faire, que ne faut-il pas faire ?

Je pense qu’aujourd’hui la stratégie le plus intéressante se trouve au niveau du link earning, ou comme on disait en 2007, du link baiting. Les liens de qualité, il faut les mériter.

C’est quoi un bon lien en 2014 ?

Normalement, je devrais dire que c’est un lien d’un site avec de l’autorité, dans une page on-topic qui parle du sujet en long et en travers avec du contenu généré par les utilisateurs, etc…

Mais si on veut polémiquer un peu, il y a une précaution à prendre en compte : le lien le plus à même d’influer sur l’algorithme de Google est un lien fait à partir d’un site trusté et non pas une centaine de liens optimisés sur des annuaires “far west” (expression empruntée à Sylvain Richard). A prendre en ligne de compte, car Google devrait bien surveiller ce type de liens.

Qui est-tu ?

victor

Je m’appelle Victor Vila. Je suis un papa et époux habitant à Dijon 🙂

Développeur / Référenceur pour l’agence de référencement SEO.fr (aussi experts-referencement.com et adifco.fr), j’ai commencé à découvrir le SEO en 2005 quand j’étais intégrateur chez Rue Du Commerce (à l’époque des Google Dances).

Le développement a été un coup de foudre tardif, qui s’allie naturellement avec les aspects techniques du SEO.

Toujours dans la même ligne, en ce moment je m’intéresse activement au Machine Learning et au Naturel Language Processing.

Please wait...

28 réflexions au sujet de « Analysez vos backlinks avec SEOCleaner ! »

  1. Merci Alexandra pour ton article et merci à Victor pour le partage de son programme.
    J’ai fait une demande et je vais le tester pour mes sites.

  2. J’utilise jusqu’à maintenant les données de majestic que je triture ensuite sur excel. Il y a aussi l’outil netpeak checker qui crawler une liste d’urls et ramènent tout un tas de données, un peu comme seocleaner.
    Mais cet outil semble aller plus loin avec le rapatriement des mails (si possible),le crawl de mots suspect dans le texte, une estimation de la toxicité du lien, …

    Toutefois, comme le dit Victor, le croisement de toutes ces données permettent de remonter les suspects, mais il faut toujours aller vérifier manuellement. Chapeau pour l’outil en tout cas.

  3. @Patrick : En un mot, oui ! Une fois le logiciel disponible nous mettrons surement en place soit un fil de commentaires soit une adresse mail dédiée afin d’avoir des retours des utilisateurs pour améliorer le logiciel. Il est déjà passé entre les mains de nombreux référenceurs et je pense que Victor accueillera tous les retours avec plaisir 🙂

  4. bonjour,

    est-ce que cet outil va traiter aussi bien les pages sources en anglais et en français, que la page cible soit aussi bien en français ou en anglais ? (exemple : une page source en anglais qui pointe vers la page cible en français, que la thématique source soit proche ou pas du tout de celle de la page cible).

  5. Super, merci pour la présentation.
    Je viens de m’inscrire sur le site pour pouvoir tester cet outil qui m’a l’air prometteur.
    Bien hâte de le tester. A+

  6. Demande faite pour essayer cet outil 😉
    Perso on en a jamais assez, comme ça avec certains on fait certaines choses et d’autres nous apportent une autre vision 🙂

  7. Bonjour, allez vous mettre à jour votre article avec l’url pour télécharger/tester/acheter ce nouveau soft ?
    Ca à l’air bien pratique ! Vivement la release.

  8. Super service en ligne à la manière d’un linkdetox, ce dernier ayant le problème de surtout être basé sur les sites anglosaxons. Cette version va permettre d’être plus précise pour les liens en Français.

    Il ne restera plus qu’aux utilisateurs d’aider le service à s’améliorer en justement donnant des notes aux différents site pour éviter les faux positifs.

    J’ai moi aussi bien hâte de tester ce service d’autant plus gratuit !

  9. Bien vu ce logiciel j’ai hâte de pouvoir l’essayer. En revanche le nom de domaine est en vente vous le seriez-vous fait prendre?

  10. Bonjour Alexandra

    Je ramasse mes liens et ceux de mes clients chez Cognitive SEO, je me suis arrété à celui-là parce que son interface et ses données me convenaient le mieux (visuel et clarté des données).
    On est toujours à la recherche de l’outil idéal, je viens donc de m’inscrire sur le site de Victor.
    Merci à vous pour ce travail de recherche et de partage.
    Portez-vous bien

  11. Merci pour l’info, j’attends avec impatience de tester ce logiciel, je viens de me faire flinguer par pingouin et je me demande pour quelle raison, avec ça j’aurais peut être une piste … thks

  12. HUHU, il a l’air cool ce logiciel, merci en tout cas à la team de proposer (pour le moment) un freeware, c’est clair que ça va nous faire gagner du temps par rapport à majestic qui est … assez indigeste

  13. Tres interessant, j’ai subis un gros drop dans le classement, je pense que c’est un lien d’un annuaire qui a été shooté par google.
    Ca pourra me servir..

  14. Bonjour, oui cet outil est très intéressant effectivement. Je trouve que l’idée est vraiment excellente en plus Ce que j’aime d’ailleurs, c’est surtout le tableau récapitulatif des liens : nombre de liens risques, liens suspects avec la densité de chaque type de lien. Je trouve ça super ! En plus en français, ce qui est encore mieux. Merci pour le partage.

  15. Je viens de recevoir le lien pour essayer l’outil, au premier abord celui-ci est très convivial et facile à utiliser, j’aime beaucoup les contrôles (sans danger, à contrôler, page non indexable) le tout associé à des couleurs, par contre je n’ai pas vu comment travailler avec un proxy sur le logiciel, en attendant j’ai installé un proxy sur internet explorer pour éviter tout blacklistage de mon IP. En tout cas bravo et merci de mettre cet outil à notre disposition gratuitement, du bon boulot.

  16. Ca à l’air bien mais ils ne répondent pas aux demandes… (2 demandes en 2 semaines, aucun liens de téléchargement envoyé..) Pas très sérieux !

  17. Je viens de m’inscrire et on verra la suite, en tout cas, d’après les détails de cet article, le logiciel me semble d’une grande efficacité même s’il est gratuit, les fonctionnalités n’ont pas de limite, ouaouhh

  18. Je n’ai pas bien compris ce passage “si la page est indexable” au point “Concrètement, comment ça fonctionne ?” je pense que tu veux dire indexée ?!

  19. Un bel outil français SEO enfin qui affichera des données dans les détails comme on le souhaite. Nous avons hâte de l’essayer pour voir ses preuves face à des gros concurrents qui sont présents depuis longtemps sur le marché.

  20. Merci Alexandra pour ce partage et cet article …meilleur vœux pour cette nouvelle année…
    Pour analyser mes backlinks j’utilise régulièrement Link Diagnosis et backlinks watch …..simple et entièrement gratuit ….

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

CommentLuv badge

Les liens des commentaires peuvent être libérés des nofollow.