Vous souhaitez donner un petit coup de fouet à votre référencement, mais vous n’avez ni budget ni beaucoup de temps à y accorder ? Si il est évidemment très compliqué d’améliorer nettement son positionnement dans de telles conditions, il existe un certain nombre de techniques qui permettent d’identifier et d’utiliser des leviers d’optimisations rapidement.
Un non-spécialiste peut se retrouver perdu face à toutes les approches possibles en SEO et ne pas savoir par quel bout commencer. Cet article vise à présenter une liste de techniques d’optimisations qui peuvent être engagées en quelques minutes et qui ne nécessitent pas forcément la mise en place d’une stratégie sur le long terme.
I – Utilisez un crawler !
Le crawler est pratique pour détecter certaines erreurs très rapidement. Il s’agit d’un logiciel qui explorera votre site de lien en lien afin d’expliciter des informations de l’ensemble des pages.
Parmi les plus connus, on peut notamment citer Xenu ou ScreamingFrog qui sont gratuits. Il en existe de nombreux autres gratuits et payants qui proposent tous des options différentes. En observant les résultats fournis par le passage d’un crawler sur votre site vous serez en mesure de :
- Détecter les erreurs 404 et de contrôler les redirections. En un coup d’œil, vous pourrez lire les codes HTTP de chaque pages repérées dans les liens internes de votre site. Vous pourrez ainsi corriger les URL non valides renvoyant des erreurs 404 en mettant en place des redirections ou en supprimant les “liens morts”.
Vous pourrez également supprimer vos redirections 302 dépassées et vérifier vos redirections 301. Réduire le nombre d’erreurs 404 et de redirections permet au Googlebot d’allouer plus de temps aux pages valides de votre site et donc de mieux indexer vos contenus.
- Vérifier le temps de chargement et le poids des pages. Le crawler vous indiquera le temps qu’il a mis à charger les pages. Vous pourrez détecter les pages qui mettent une durée anormalement élevée à s’afficher et corriger les éventuelles erreurs qu’elles présentent. Comme nous l’avions vu dans un article sur l’optimisation des images, le temps de chargement de votre site peut indirectement améliorer votre référencement.
- Détecter les Titles et les métas descriptions dupliquées. Le risque ici est d’avoir plusieurs de vos pages qui rankent sur les mêmes mots clés et donc de cannibaliser vos propres positions. Face à des contenus similaires, Google peut en effet décider de n’afficher qu’une seule page dans la SERP. Donc pensez à rédiger un titre et une description uniques et pertinents pour chaque page de votre site. Les internautes seront également plus au fait du contenu de votre page et votre taux de rebond pourra baisser.
De plus, il y a des chances pour que des pages ayant les mêmes titres et descriptions ne soient en fait des DUST (Differents URLs with Similar Text), autrement dit, des pages au contenu dupliqué. Le crawler vous permettra de les repérer rapidement et donc de réagir en appliquant les mesures nécessaires telles que la mise en place d’une redirection ou d’une balise canonical. Cela vous permettra d’optimiser uniquement le référencement de la page souhaitée et d’éviter la ventilation et déperdition de backlinks et de trafic entre les différentes URLs d’une page dupliquée.
II – Optimisez vos images
En plus des conseils concernant le poids des images dont je vous ai fait part la semaine dernière, pensez à optimiser l’attribut ALT de vos balises d’images. Cet attribut sert à décrire textuellement l’image et est utilisé par les moteurs de recherche pour référencer correctement les visuels ainsi que par les personnes n’étant pas en capacité d’afficher ce type de contenus (réglages de navigateurs, déficients visuels).
En choisissant des mots clés pertinents pour l’attribut ALT, une image pourra contribuer au référencement sur les expressions utilisées.
Le nom du fichier image, visible dans le code source de votre page peut également être bénéfique de façon moindre à votre référencement.
III – Vérifiez vos 3 “W”
Faites attention à ne pas avoir deux noms de domaines distincts qui cohabitent sur le web tels que mondomaine.com et www.mondomaine.com par exemple.
Sans précautions particulières, ils peuvent être considérés comme deux sites différents aux contenus dupliqués par les moteurs. Vous risquez de ventiler et de diviser les liens et le trafic qui pointent vers votre site par deux.
Pensez à faire une redirection d’un domaine vers l’autre. Vous pouvez également indiquer dans la Google Search Console votre domaine préféré.
Je vous conseille de conserver le domaine avec les “www” car ce préfixe est aujourd’hui rentré dans les habitudes des internautes.
IV – Mettez à jour votre sitemap.xml
Le sitemap est un fichier XML qui indique aux moteurs de recherche les URLs existantes de votre site. Il permet d’optimiser le crawl et l’indexation de ce dernier. Lorsque vous rédigez des nouveaux contenus ou ajoutez des pages à votre site, pensez à mettre à jour votre fichier sitemap afin qu’il soit en accord avec la réalité de vos URLs.
Il existe des outils et plugins permettant l’automatisation de sa mise à jour, notamment si vous utilisez un CMS comme WordPress.
V – Jetez un œil à votre fichier Robots.txt
Ce fichier indique aux crawlers des moteurs de recherche quelles zones de votre site ils ont le droit ou non d’explorer. Sa configuration vous permet donc d’empêcher l’indexation des contenus de votre choix.
Il peut être intéressant d’aller y jeter un coup d’œil si ça fait longtemps que vous ne l’avez pas ouvert afin de vous assurer qu’il ne bloque pas l’accès aux moteurs à certaines pages, images ou rubriques de votre site qui pourrait vous générer du trafic.
Petite conclusion …
Ces optimisations ne remplaceront pas l’investissement dans un audit complet et la mise en place d’une stratégie SEO appuyée par les compétences d’un expert. Il ne faut pas perdre de vue que le référencement se travaille dans la durée. Cependant, contrôler ces différents éléments et corriger les erreurs que vous pourriez rencontrer ne pourra pas faire de mal à votre site !
Après avoir fait de la vidéo, je suis tombé dans la marmite du SEO. Je suis actuellement chargé de contenu et de référencement chez un annonceur à Nantes.
Au sujet des 3 “w” je me demande quelle est vraiment le pourcentage des internautes qui l’écrivent pour regarder un site. D’autant qu’avec Google partout il suffit bien souvent de taper le nom sans ce préfixe ni l’extension de domaine…
C’est parfait, cette Checklist allégée, il y a tant de débats SEO que finalement c’est bien de rappeler l’essentiel.
Xenu c’est utile, mais je suis aperçu aussi qu’avec un grand nombre de liens, il faut passer en mode manuel sinon, on ne voit pas tout.
patrick Articles récents..Klokers, une levée de fonds dans un temps record sur Kickstarter
Je suis aussi dubitatif sur le maintien on non des www. Je n’ai pas noté de différence entre les sites les ayant conservés et les autres.
En revanche, je confirme la nécessité d’informer Google et de faire une redirection 301.
Je rajouterais aussi l’utilisation des outils Google pour faire une vérification rapide sur la compatibilité mobile et le temps de chargement des pages 🙂
@Amanda, concernant le 3W, je ne pensais pas spécialement au fait que les internautes tapent l’adresse. Il s’agit surtout d’un moyen pour une personne de reconnaitre facilement qu’il s’agit d’une adresse web. Sur une carte de visite, une plaquette, à l’oral ou depuis un autre site, “www.mondomaine.fr” sera probablement plus rapidement et plus finement perçu comme une adresse web que “mondomaine.fr”. Je n’ai pas d’études là dessus. Il s’agit, je crois, d’une norme informelle qui est rentré dans les habitudes de chacun.
@Véronique : Oui effectivement, j’aurai pu parler également de cet outil qui permet d’obtenir de riches informations en un coup d’œil.
Bonjour,
Je suis nouvelle sur ce blog et c’est avec plaisir que j’ai lu cet article!
Ça me permet de mieux connaitre le référencement!
Comment on peut savoir que l’on a un site sur mondomaine.com? Je n’ai rien fait de particulier alors j’espère que mon site est bien sur www. mondomaine.com et qu’il n’est pas dupliqué sur l’autre url!!
Pour le sitemap, est-ce que tu sais s’il y a possibilité d’en faire sur wix ?? Car je sais que google crawl très mal mon site mais malgré 2 prestations SEO en cours, le site est toujours aussi mal lu, quelqu’un sait comment faire avec wix pour crawler tout le site?
Merci pour les noms des crawlers gratuits je vais tester ça.
Salut,
Cet article est pertinent’ mais s’adresse plus à des Webmasters qu’à des SEO.
Concernant les WWW c’est en fait l’inverse, ça embrouille les internautes lambda qui ne savent pas à quoi cela correspond (idem pour le TLD). On peut noter également que ça ralonge l’URL de 4 caractères pour rien.
C’est sûrement pour ça que la plupart des “nouveaux sites” n’ont pas de WWX. Des exemples ? Twitter, Trello, ou tiens, le dernier site de Google (Alphabet : abc.xyz ) 😉
@Cadeau original : Merci pour ce commentaire.
Pour vérifier si votre site est bien accessible sur un seul domaine il suffit de taper les deux adresses : mondomaine.fr et http://www.mondomaine.fr. En regardant la barre d’adresse du navigateur, il suffit de vérifier si une des deux options est redirigée vers l’autre. (Exemple : en tapant mondomaine.fr le navigateur affiche http://www.mondomaine.fr).
Concernant Wix, il me semble que l’outil génère automatique un sitemap : https://fr.wix.com/support/html5/seo-et-statistiques/paramètres-doptimisation/kb/votre-plan-de-site-sitemap
@Manu : Bonjour, cet article s’adresse en effet plus à des webmasters 🙂
A vrai dire, concernant les www, il n’y a à mon avis pas de bonne réponse universelle. Personnellement, j’utilise en général les “www” qui, je crois, permettent de rapidement identifier qu’il s’agit d’une URL. J’avoue ne pas avoir d’études chiffrées là dessus. C’est un conseil que j’ai lu plusieurs fois sur différents blogs. Je me renseignerai en essayant de trouver des éléments plus précis.
Tu résumes parfaitement les avantages obtenus à ne pas les utiliser.
Ce sous-domaine reste utilisé par de nombreuses sociétés pour identifier leur site principal (parfois par rapport à d’autres services comme par ex : http://www.google.com / mail.google.com / inbox.google.com… ou encore wikipedia dont le www sert de portail aux différentes langues : http://www.wikipedia.org puis fr.wikipedia.org) ou pour distinguer un sous domaine de blog par exemple.
Il y a une vrai réflexion à avoir sur la question des 3W lorsqu’on projette d’utiliser plusieurs sous domaines.
C’est une liste courte mais qui mentionnent des choses importantes que, parfois, on oublie lorsque l’on est plongé dans le référencement d’un site depuis un petit moment. Ça semble tellement évident que l’on ne vérifie même pas ces points. Donc merci pour cette piqûre de rappel, je vais m’imprimer cette petite liste !