Article invité rédigé par Lucie Rondelet, formatrice en rédaction web.
Nous y voilà, ou presque… les contenus de mauvaises qualité vont être de plus en plus pénalisés par l’algorithme de Google. On pouvait s’en douter, l’incroyable machine devient plus intelligente, chaque jour, et se focalise désormais sur l’UX (l’expérience utilisateur). Vous rêvez d’augmenter le trafic organique de votre site web ? Ce qui suit va vous permettre d’adopter le bon état d’esprit afin d’obtenir des résultats positifs et durables !
Exit les placements de mots-clés “à l’arrache”
Les rédacteurs qui travaillent sur les plateformes de rédaction web le savent : certains clients sont encore persuadés qu’il faut placer des mots-clé tels quels. Ils ont regardé deux ou trois vidéos tuto sur Internet, ils ont entendu parler de logiciels comme Ubersuggest ou Answerthepublic et se lancent, seuls, dans la création de briefings pour leurs équipes.
Résultat : on se retrouve avec des demandes du type “merci de placer le mot clé “meilleur restaurant Nice” 18 fois dans le texte.” bien entendu, les rédacteurs web ont l’interdiction formelle de placer des mots invisibles (comprendre, d’ajouter “à” entre “restaurant” et “Nice”) ! Par ailleurs, ces clients sont très peu exigeants sur le niveau de l’auteur et donc, publient parfois des textes sans même avoir pris le temps de les relire.
Aujourd’hui, disons les choses simplement : ces techniques sont surannées pour ne pas dire has been. Les clients qui investissent dans ce genre de contenus foncent littéralement dans le mur… Vouloir faire des économies peu parfois entraîner de gros dégâts !
Rédaction web et évolution de l’algorithme de Google
Je vous le disais en introduction, l’algorithme de Google est de plus en plus intelligent, son but est de rendre l’expérience utilisateur agréable et fluide. Un internaute satisfait de son expérience est un internaute fidèle et Google veut absolument conserver sa place de leader mondial. Pour séduire l’algorithme du géant, il est désormais indispensable de proposer du contenu qualitatif ; entendons par là :
- un vocabulaire suffisamment riche ;
- des phrases bien structurées ;
- un bon balisage HTML ;
- une bonne ponctuation ;
- l’absence de fautes d’orthographe ;
- des informations pertinentes, avec une forte valeur ajoutée.
Si vous proposez des textes de qualité sur votre site Internet, vous aurez beaucoup plus de chances de plaire à l’algorithme ET aux internautes !
Plaire aux internautes avec un bon contenu rédactionnel
Les temps changent, les mobinautes remplacent peu à peu les internautes sur PC et MAC. Ceux-ci scrollent les pages web “à la va-vite”, ils cherchent une information précise et survolent les contenus d’un œil distrait. Ils est difficile de capter leur attention, surtout s’ils vous découvrent depuis la page d’un réseau social.
Sans cesse dérangé par des notifications et autres sollicitations provenant de son environnement, le mobinaute ne reste pas longtemps sur les pages, pourtant, ce détail a son importance pour l’algorithme de Google !
Pour conserver vos lecteurs le plus longtemps possible sur vos pages vous devez :
- copywriter vos titles ;
- rédiger une excellente introduction qui donne envie de lire la suite ;
- choisir de bons H2, qui incitent à s’attarder sur l’article (car les mobinautes ont une fâcheuse tendance à lire en diagonale ; il faut donc leur donner envie de rester en rédigeant des H2 percutants) ;
- proposer un texte cohérent (qui répond à ce qui était annoncé dans le title) ;
- donner de vraies informations pour éviter l’effet “coquille vide” qui agace les internautes.
Comment Google peut-il reconnaître un contenu de qualité ?
Google sait tout, il est donc capable d’évaluer le temps passé sur une page, le taux de rebond et bien d’autres paramètres. Voici un exemple concret pour bien comprendre :
Un internaute tape une requête dans la barre de recherche de Google. Il clique sur le premier résultat naturel du SERP (page de résultats), scrolle la page, voit en un coup d’oeil qu’il n’y a pas les réponses à ses questions puis fait un “retour arrière” pour revenir sur le SERP. Au total, il a passé 4 secondes sur le site et n’a cliqué sur aucun lien sur la page.
Temps passé sur le site : 4 secondes – Taux de rebond : 100 %
Dans une même journée, plusieurs dizaines d’internautes suivent à peu près le même chemin. D’après-vous : quelle conclusion l’algorithme peut-il tirer d’un tel comportement ?
Je vous le donne en mille : il se dit “zut ! Je n’aurais sans doute pas dû placer cette page dans mes premiers résultats sur cette requête clé… je vais finalement en mettre une autre !”. (Bon OK, l’algorithme est très intelligent mais peut-être pas au point de se faire ce genre de réflexion… mais vous avez compris l’idée ;-))
Résultat : la page perd des places dans le SERP car son contenu n’était pas pertinent !
On refait la même chose avec un contenu qualitatif, qui développe ce qui est promis dans le title, le tout avec un bon style, des H2 percutants :
L’internaute tape une requête dans la barre de recherche de Google. Il clique sur un lien dans le SERP et scrolle la page. Il se rend compte que l’information qu’il cherchait est là, sous ses yeux. Elle est promise dans l’introduction et les paragraphes semblent vraiment pertinents. Le visiteur prend le temps de lire l’article et l’auteur l’invite à cliquer sur une ancre pour en savoir plus sur un sujet très proche (vive le maillage interne !). L’internaute a un peu de temps devant lui, il a adoré l’article, il décide donc de cliquer pour continuer à s’informer et/ou se divertir.
Temps passé sur le site : plusieurs minutes – Taux de rebond : moins de 50 %
Cette fois, l’algorithme de Google est conforté dans l’idée que la page qu’il propose dans le top 10 du SERP est pertinente sur cette requête clé, il la laisse donc à cette place voire décide de la faire remonter.
Vous l’aurez compris : investir dans du contenu de qualité peut vous permettre d’améliorer votre référencement et donc, de gagner du trafic organique. Par ailleurs, cela oblige les acteurs du web à ne plus “balancer” des textes bas de gamme à faible valeur ajoutée… cela fait moins de données à stocker dans les data centers. Et oui, c’est aussi une démarche éthique et écologique, il serait bien dommage de s’en priver !
Passionnée par le référencement naturel et la rédaction web ! Blogueuse depuis 2012 ! Coauteur du livre “Techniques de référencement web” et “Stratégie de contenu e-commerce”.
Découvrez mes “Prestations SEO” et contactez-moi pour échanger sur votre projet SEO.
Article très intéressant qui m’a permis de redécouvrir ce blog également très intéressant ! Merci les filles !
Bel article merci 🙂
Il faut aussi distinguer le taux de rebond et le temps passé sur le site en fonction du type de site. Un lecteur assidu d’un blog n’a pas vraiment de raison de lire une autre page que celle du dernier article. De même si on fait une recherche pour trouver un tuto sur une question bien précise.
En matière de site ecommerce, il en va différemment puisque là l’internaute va logiquement rechercher et comparer plusieurs articles.
Pour les sites de presse généralistes, il va regarder les actus du jour.
Ceci étant dit, la qualité des textes est primordiales et investir dans la rédaction de ceux-ci est clairement judicieux.
L’algo de Google quel pétrin
Ce n’est pas facile d’avoir un contenu intéressant pour google sur un site de recettes. Le texte est forcément assez court donc le visiteur ne reste pas longtemps (sauf si elle lui plait et qu’il cuisine le plat !)
En plus pour une recette donnée les textes ne varient pas beaucoup d’un site à l’autre.
Je vais essayer de mettre des liens vers des plats proches.
J’ai beaucoup aimé la structure de cet article, c’est très bien vulgarisé pour expliquer l’importance de la pertinence du contenu !
Tralala la sémantique algorithmique (le corpus) la miss 😉 je ne sais pas si tu en as parlé déjà.
C’est bien vrai qu’avec tous ces algorithmes Google il est difficile de faire les bons choix . Votre article est très intéressant et si les internautes le lise bien et le comprennent alors les chances de pénalisation de votre site ou de vos pages seront réduites.
Le contenu c’est vraiment ce qu’il y a de plus important maintenant, je me demande même si un jour l’usage des liens servira à quelque chose pour le référencement ou du moins, ils seront différents je crois.
Merci pour ce super article.
Concernant le raisonnement de Google, pas certain qu’un taux de rebond très élevé lui fasse dire que la page n’est pas pertinente. Un internaute peut n’avoir envie de lire que cet article là sans aller ailleurs sur le site.
Un taux de rebond de 100% mais avec 10 minutes passé sur la page est tout aussi qualitatif me semble-t-il.
Bien évidemment on aimerait tous que les internautes restent sur le site mais concernant l’algorithme je me pose la question
Il est clair qu’aujourd’hui pour plaire à Google, il faut créer du contenu qui répond à la problématique de l’utilisateur, mais celui-ci doit avoir un champ lexical bien développé !
Je vois que dans l’article tu parles du balisage HTML, je suis tout à fait d’accord. Je ne pense pas que à ce jour les balises du type ou apporte un réel plus en terme de référencement naturel mais je suis convaincu que cela aide les robots à crawler les site à comprendre l’architecture même de la page. Nombreux sont ceux qui perdent leur temps sur du off-site alors que le on-site est parfois ……catastrophique.
Merci pour cet article. J’ajouterai une chose toute simple, à l’usage de ceux qui n’ont pas trop le temps ni le loisir de mettre les mains dans le SEO : pour aller dans la bonne direction, il suffit de ne jamais oublier qu’on écrit pour les gens. Un contenu intéressant pour les gens intéressera forcément Google – dont l’objectif principal est l’amélioration de l’expérience utilisateur.