Vous êtes ici : Miss SEO Girl » Corporate » Mon compte rendu SEOCampus 2014 et les slides des conférences – Partie I

Mon compte rendu SEOCampus 2014 et les slides des conférences – Partie I

seocampusHello à tous !

Je viens de rentrer chez moi après deux jours de SEOCampus, journées inoubliables. C’était pour moi la 2ème année consécutive. J’ai été ravie de voir/revoir du monde, les conférences ont été super, l’atmosphère et l’ambiance au RDV : vraiment excellent !

Je souhaitais remercier l’association qui a fait un boulot formidable, aux sponsors qui ont soutenu l’événement, aux conférenciers qui sont venus partager avec nous leurs connaissances, un grand merci à tous !

Voici le compte-rendu, sur les conférences de la première journée. Comme on ne peut pas assister à toutes les conférences, car il y en a deux ou trois en même temps, mes chères Mélanie et Zakia m’ont aidée à compléter mon compte-rendu en me glissant leurs petites notes. Merci beaucoup les filles 🙂

Bonne lecture, et à demain pour la 2ème partie !

Séance « Mythbusters » : tordons le cou à quelques légendes urbaines en matière de SEO

table-ronde-mytheOn commence la première journée du seocampus avec une table ronde animée par Neil McCarthy sur une série d’affirmations sur lesquelles les 5 professionnels : Renaud Joly, Sébastien Monnier, Olivier Andrieu, Laurent Bourrelly et Philippe Yonnet devraient s’exprimer par Mythe ou Réalité.

Ce qui m’a plu et peut être réconforté dans mon for intérieur c’est que les 5 professionnels de la table ronde n’étaient pas toujours d’accord sur ce qui est du mythe et de la réalité. Pour moi cela veut dire que le SEO n’est vraiment pas une science exacte et que tout n’est pas blanc ou tout noir.

Cela confirme le fait qu’il faut se poser les bonnes questions, savoir utiliser les techniques avec modération pour ne pas dépasser certaines limites, et bien sûr savoir que ce qu’il marche pour un site ne marchera pas forcement pour un autre. Dans le SEO il faut tester et faire sa propre opinion.

Quelques exemples :

  • L’achat de lien est pénalisé par Google – Oui, mais celui du « bourrin »
  • Enregistrer un nom de domaine sur 10 ans aide au SEO – NON à 100 %
  • Le duplicate content n’est pas pénalisé par Google : Avis partagés (2 Mythes et 2 Réalités) – Le contenu dupliqué sans valeur ajoutée est pénalisé !
  • Le temps de chargements influence le classement d’une page : pour Olivier ANDRIEU le temps de chargement n’influence pas le ranking dans le SERPs mais l’expérience utilisateur qui est amélioré.
  • Google index parfaitement le flash : OUI, mais il est mal positionné
  • La densité de mots clés est un mythe à 100 %
  • Acheter des mots clés sur Adwords permet d’améliorer les SERPs : mythe pour 100 % des participants

Hummingbird, le point de vue d’un linguiste (Sébastien Monnier  Woptimo et Anthony Sigogne)

colibriVous connaissez tous HUMMINGBIRD, le COLIBRI, mise à jour de l’algorithme annoncée en septembre 2013 lors du 15ème anniversaire de Google.

Sébastien Monnier avec son coéquipier Anthony, nous a présenté cette mise à jour et les changements qu’elle entraine pour le SEO.

Ce que je ne connaissais pas, c’est que le Colibri est un oiseau qui est capable de faire marche arrière. 🙂 Pensez-vous que Google a voulu nous faire passer un message ? Je ne sais pas trop, mais c’est à réfléchir 🙂

En tout cas ce qu’il faut retenir, c’est que l’oiseau est rapide et précis. La mise à jour s’appuie sur la « sémantique », et plus précisément sur la notion de « concept ». Le moteur de recherche essaye de comprendre la requête de l’utilisateur pour lui fournir la meilleure réponse.

Quelques changements pour le seo :

  • Adieu contenus SEO : il va falloir travailler ses contenus pour les utilisateurs et non pas pour les robots. Il va falloir être clair, concis et factuel !
  • Il va falloir également penser présentation (mise en page) et lisibilité du texte
  • Il va falloir analyser ses mots clés en allant plus loin : analyser le champ lexical, les synonymes…
  • Attention également à la véracité des contenus (dates, adresses), car Google peut extraire votre contenu et le comparer avec sa base de données.
  • Avec hummingbird l’utilisation des données structurées devient un standard

Google Glass

J’ai profité à la pause du matin pour tester les Google Glass ! Vraiment très intéressant, même si je trouve un peu bizarre de parler à une paire de lunettes ! 🙂 En tout cas, merci à Synodiance pour cette opportunité !

google glassgoogle-glass2

Toujours à la pause, j’ai profité pour échanger avec Olivier et bien sûr immortaliser le moment !

olivier-andrieu-alexandra

Micro data, rich snippets, schema org (Yann Sauvageon – Synodiance)

Conférence expliquée par Mélanie 🙂

Pour tout savoir des richsnippets depuis leur création, il fallait suivre la conférence de Yann Sauvageon. Avant l’explosion des microdonnées au lancement du HTML5, seul 1% des sites les utilisaient. La cause de cette impopularité ? La complexité du vocabulaire ou encore de la mise en place.

L’association entre Google, Bing et Yahoo (puis Yandex quelque temps plus tard) a permis la création des standards en microdonnées accessibles depuis schema.org. Aujourd’hui, près de 1 200 catégories y sont disponibles !

A savoir :

  • La nouvelle version de Drupal (drupal 8) intégrera par défaut les rich snippets ce qui devrait booster leur déploiement
  • Il peut être favorable de baliser en schema.org son compte Pinterest et ses emails (seulement via Gmail).

Le « Big Data » et ses applications au SEO (François Goube Cogniteev)

Conférence expliquée par Zakia 🙂

François Goube a abordé le sujet de big data ou il a voulu nous démontrer qu’il peut servir aux SEO.

Selon lui, le domaine des SEO peut générer énormément de données: web analytics, outils d’analyse de backlinks, de crawl, de mots clés… une chose est sûr les données ne manquent pas.

Le big data permet de nous montrer ce qui marche, pourquoi ça marche : toutes les données sont à notre disposition.

Du côté des moteurs de recherche: Google par exemple cherche justement à nous priver de data: not provided, humminbird.

François nous a déclaré que les techniques de big data ne sont pas réservées qu’aux sites qui ont de l’envergure qui génèrent des données difficiles à gérer.

Ces données sont issues des outils d’analyse :

  • De backlinks, position, webanalytics avec l’outil Majestic SEO: nouveaux liens ? Liens que j’ai perdus ? ou bien ceux des concurrents: repérer les actions en netlinking, les pages travaillées par les concurrents et ne pas oublier de calculer le trust flow.
  • Seo onsite avec l’outil Oncrawl 

Selon François, la combinaison de ces deux outils nous permet de récuperer le PR d’un site qui a perdu de sa popularité . Plus les outils d’analyse sont de qualité, mieux on pourrait les dompter.

Le but de tout ça étant de prévoir une stratégie défensive, atteindre un indice de popularité pour ne pas se faire distancier par les concurrents.

François Goube nous conseille de se faire petit, voir à travers ces outils d’analyse ce qui marche ou pas et voir loin 🙂

Les critères constitutifs du webspam (Sylvain et Guillaume Peyronnet)

Même si j’ai participé à la Masterclass des frères Peyronnet, j’ai voulu assister à leur conférence. Je savais que je vais entendre des choses que j’ai déjà entendues, mais ce n’est pas grave !  C’est tellement fascinant 🙂 Et entre nous, j’aime bien les frères 🙂

freres-peyronnetQuelques idées :

  • Le webspam a été conçu pour attirer des internautes venus des moteurs de recherche vers une ou plusieurs pages web données
  • Il est difficile de faire la différence entre une page de faible qualité et une page spammy
  • 3 types de webspam : liens nepotiques, schemas de linking, contenu spammy

Le mieux est de créer un réseau naturel, c’est plus pérenne, mais il faut y consacrer du temps, c’est un investissement.

Les Frères sont en train de réaliser une étude webspam. Ils vont avoir besoin de nous pour leur donner un coup de main pour noter des pages. Pour participer il faut juste leur dire via cette page : http://webspam.peyronnet.eu/demande.php

Optimiser sa page Facebook pour le graph search

Conférence expliquée par Mélanie 🙂

Tout d’abord quelques chiffres intéressants ont été abordés par Franck Rocca lors de cette conférence qui fut très instructive : Le taux de conversion moyen sur Facebook est de l’ordre de 1,85%. En France, si le taux de clics sur vos liens sponsorisés avoisine les 6%, vous pouvez être satisfait !

Puis, ont été abordées les étapes à suivre et quelques conseils afin d’attirer ses futurs clients via Facebook :

  • Définir une ligne éditoriale en fonction de son but
  • Définir son audience cible
  • Définir les objectifs de ventes
  • De mettre à la place de l’internaute idéal, se demander pourquoi vos internautes vous likent
  • Il est recommandé d’être direct avec ses fans : demandez-leur pourquoi ils vous suivent !
  • Créer de la valeur ajoutée et donner de vrais conseils sans crainte
  • Identifier au préalable le temps à consacrer à l’animation de sa page Facebook. Surtout, restez régulier : si l’intervalle entre vos publications diminue, votre audience qui s’est habituée à une fréquence de publication plus élevée chutera également.
  • Planifier ses publications en fonction des jours de la semaine : Choisissez un thème le lundi, un autre le mardi et suivez ce même thème chaque semaine.
  • Planifier 4 à 5 postes à l’avance
  • Utiliser le Power Editor : le logiciel de pub avancée de Facebook.
  • Consacrer 50% de son temps et budget dans la création d’audience, 30% dans l’engagement et 20% dans les conversions.

Réussir une refonte de site sans perdre son référencement (Camille Thomas -Groupe My Media)

Conférence expliquée par Zakia 🙂

La refonte d’un site selon Camille Thomas, serait de trouver les points forts du site ainsi que ses failles afin de déterminer une stratégie de refonte adaptée : les différentes questions qu’on pourrait se poser dés le départ de tout processus de refonte sont:
  • d’abord d’identifier les points forts du site en question
  • si le site est administrable
  • le nombre de visiteurs chaque mois
  • combien de liens externes pointent vers le site
  • présence dans les réseaux sociaux
  • le positionnement sur certaines expressions ou requête de recherche Google

Exploiter efficacement les possibilités de Google+ (Mathieu Tournade – Yakamama)

GOPR0330_3Mathieu nous présente le réseau Google + et les principaux outils : Ripples, Hangouts, Communautés, Evènements, Photos. Il nous donne ensuite quelques outils assez sympas : allmyplus (pour des statistiques), Friendplus.me pour poster simultanément sur d’autres réseaux sociaux, Buffer

Ensuite, Mathieu nous a parlé d’un test qu’il a fait pour voir les impacts sur le SEO. A savoir que le réseau permet une indexation et un positionnement rapide. Google semble apprécier qu’on utilise son réseau, donc ne vous privez pas. D’ailleurs, dans les ranking factors 2013 de searchmetrics, Google+ est le critère le plus important.

Pénalités manuelles, algorithmiques, Panda, Penguin… comment les éviter, comment en sortir (table ronde)

table-ronde-2Table ronde animée par Roland Debrabant, avec la participation d’Aurélien Bardon, Sébastien Monnier et Philippe Yonnet.

Des échanges sur les deux mises à jour de l’algorithme (Panda, Penguin) ont eu lieu. Rien de très nouveau, mais les participants ont essayé de nous expliquer et de décrypter les pénalités manuelles et automatiques.

Les deux mises à jour ont fait couler beaucoup d’encre et font littéralement peur à la sphère seo. Pour Philippe Yonnet, la stratégie utilisée par Google c’est une technique appelée FUD (Fear, Uncertainty and Doubt) : peur, incertitude et doute. Pas mal du tout, car si on regarde en face la situation, c’est exactement ce que ressent la plupart des référenceurs.

Ce qu’il faut retenir de cette table ronde :

  • Il faut travailler son contenu, éviter le contenu de mauvaise qualité, sans valeur ajoutée et surtout pas de contenu/dupliqué
  • Attention aux liens, leur qualité, la source de liens, l’ancre..
  • Si vous êtes malheureusement pénalisé par Penguin, il faut : supprimer les liens de mauvaise qualité, désoptimiser les ancres, contacter les webmasters pour trouver une solution et en dernier recourt, désavouer les liens. Montrer votre bonne foi à Google !

Extensions,nouveaux formats, nouvelles interfaces… Cours de rattrapage sur Google Adwords (Jonathan Vidor – JVWEB)

Conférence expliquée par Mélanie 🙂

Plusieurs nouvelles extensions ont été abordées dans cette conférence animée par Jonathan Vidor : l’extension champs de formulaire (bientôt disponible pour l’ensemble des comptes), l’extension citation ou la review extension (seulement disponible en anglais), l’extension d’images (disponible en France mais seulement pour les grands comptes tels que Renault).

Ce qui m’a sûrement le plus captivé dans cette conférence, c’est l’utilisation des scripts qui permettent d’optimiser plus aisément ses campagnes AdWords. Ces scripts accessibles sur Google et mis en ligne par des développeurs, permettent d’effectuer rapidement les actions suivantes :

  • La gestion des enchères en fonction de la météo et selon les zones géographiques
  • La mise en pause de ses publicités en fonction des stocks des produits
  • Le suivi du quality score de ses mots-clés avec la possibilité de recevoir des notifications à chaque changement de cet indice
  • La programmation des groupes d’annonces : il est possible de paramétrer la date de début et la date de fin pour chaque groupe d’annonces.

Le bêtisier du SEO par Paul Sanches

Petite conférence sympa en fin de journée, histoire de détendre mon cerveau qui a pris dur 🙂 !!

paul-simonLa conférence a été tenue par Paul Sanches, connu pour ses compétences « seo high level » 🙂 accompagné de son joli penguin Simon Gardette. Une conférence sous le signe de l’humour, qui nous a fait rigoler avec quelques « fails » et anecdotes sympas de notre métier.

  • La manipulation de Wikipédia avec l’exemple de Jacques Dutronc, le faux collectionneur de couteaux, alors qu’il s’agissait de Johnny Hallyday
  • La désindexation du site de Matt Cutts, pour cause de duplicate content.
  • Le site de la CNIL qui est tombé après l’obtention d’un lien en home page de Google
  • Le « merci pour cet article » sur un article qui traitait d’un décès
  • La technique de Linkbait avec l’exemple du docteur en dermatologie faciale, John Bukkake

Optimisez vos sites et vos pages d’atterrissage grâce à l’AB Testing (Anthony Brebion – Liwio)

Conférence expliquée par Zakia 🙂

AB testing :cet outil permet d’optimiser les sites et leurs pages d’atterrissage : la collecte des informations qui nous aideront à identifier nos problèmes de conversion et à dégager des idées “fortes” de tests.

Les avantages de l’A/B testing :
  • collecte l’information directement auprès des internautes
  • peu couteux vs. d’autres modes de collecte
  • aide a la prise de décision
  • accélère la prise de décision
  • permet de se libérer, en partie, de la technique
  • bien utilisé, il permet d’améliorer l’atteinte des objectifs
Quelques exemple de ceux qui l’utilisent déjà :But, Groupon, Bouygues Telecom, Gerard Darel, Boulanger, Carrefour banque, Ouest France, Cdiscount, Smartbox, Etam, Promod, Francetélévisions, et pleins d’autres ..
Les idées reçues sur l’A/B testing :
  • j’ai rapidement des résultats
  • des modifications mineures peuvent entrainer des résultats spectaculaires,
  • j’ai moins de résultats qu’avec des tests multiparités
  • mon SEO peut être affecté
  • ce qui marche pour les autres marchera pour moi
  • mon site est ralenti, j’ai des scintillements
L’A/B testing est un outil au service de votre stratégie CRO, laquelle doit englober d’autres disciplines. Ce qu’il faut retenir : ne pas tester à l’aveugle, générer des hypothèses fortes, prioriser les tests..
En premier lieu, exploiter les données analytics :
  • appréhender l’intégralité du tunnel de conversion (d’ou arrivent les visiteurs, sur quelles pages, quelles pages consultent-ils ensuite…)
  • constater ou se situent les problèmes de conversion
  • prioriser les pages à tester
Des outils nous aident à comprendre les comportements que la web analyse ne fait que mettre en évidence:
  • simulation d’eye tracking pour produire des cartes de chaleur
  • etude de click tracking
  • analyse du scroll des pages
  • mesure des zones d’attention
Écouter ce que les clients ont à dire en utilisant des outils permettant de collecter le feedback des internautes (questionnaires en ligne, études de satisfaction, systèmes de chat, agent virtuels)
On peut également optimiser ses landing pages pour des objectifs spécifiques:
  • micro conversion (ajout au panier)
  • macro conversion (vente)

Apéro SEO

La première journée de conférences est finie. Place à l’apéro !

apero-seoRDV demain pour la 2ème partie du compte-rendu 🙂

Compte-rendu réalisé avec l’aide de Mélanie et Zakia 🙂 Merci les filles ! Girl Power ! Yeahhh 🙂

mélanie-troadeczakiaprofile

Pour aller plus loin :

Please wait...

13 réflexions au sujet de « Mon compte rendu SEOCampus 2014 et les slides des conférences – Partie I »

  1. Salut Alexandra,

    Merci pour la première partie de ce compte-rendu, c’est gentil de penser à ceux qui n’y était pas 😉
    Ca avait l’air bien fun en tout cas. J’espère que tout le monde a bien profité, aussi bien sur le point de vue humain que sur le plan professionnel.
    J’espère pouvoir y aller l’année prochaine si l’association ne se dissout pas (ce dont je doute fortement d’ailleurs au passage).
    J’attends la seconde partie demain ! Merci pour les photos sur Facebook aussi !

  2. Yees merci Alex tu es au taquet ! N’ayant pas eu l’occasion d’y aller (je me rattraperai au SMX), j’ai tenté de suivre via Twitter mais pas facile 🙂 Dommage ca avait l’air hyper intéressant…

  3. Merci pour le compte-rendu !!! 😀
    J’avoue être d’accord sur la quasi totalité de ce que tu as résumé ici (enfin, avec les idées que tu nous as résumé en tout cas ! ^^) mais je ne comprends pas pourquoi tous les spécialistes se persuadent que la densité de mots-clés est un mythe… En quel sens ? Le fait qu’il y ait une limite à ne pas dépasser ou le fait que la densité de mots-clés ne soient pas un facteur ?

    Pour moi la densité est forcément un mini facteur au moins car Google doit nécessairement comptabiliser le nombre d’occurrences des mots. Quoique, le nombre d’occurrences ne veut pas dire “densité” donc ça se réfléchit en effet… Tout ça pour dire que la densité ou plutôt le nombre de “répétitions” des termes doit forcément avoir un impact, c’est quelque chose qui était en place sur des moteurs usant d’un “tri par pertinence” donc ça me semble encore crédible.

  4. Merci pour ce compte rendu! C’est le genre de notes qu’on est toujours contents de lire, un résumé qui va à l’essentiel. J’ai bien aimé le fait que tu rappelles que le seo doit avant tout servir à améliorer la qualité du contenu et l’expérience utilisateur plutôt que de chercher à tout prix à attirer les robots des engins de recherche.

    Un grand MERCI de Montréal! 🙂

  5. Encore une très bonne édition du SEO Campus, en espérant que ce ne soit pas la dernière 🙁

    @Mathieu, si la densité de mot-clés est annoncée par nos experts comme un mythe, c’est effectivement car ils considèrent que c’est le nombre d’occurrences d’un mot-clé qui est un facteur, et ce sans rapport avec le nombre de mots au total.
    Cédric Guérin Articles récents..Concours SEO Dromardennes : l’heure du bilanMy Profile

  6. @Cedric Guérin
    Merci Cédric, je me disais bien que je ne délirais pas à ce point quand même… ^^
    Je pense en effet que la densité de mots clés en elle-même ne compte pas mais le nombre d’occurrence oui. La densité doit juste nous servir à comptabiliser les répétitions dans notre textes pour savoir si nous sommes spammy ou non, son rôle n’est pas de mieux positionner en effet ! 😀

  7. Un compte rendu qui me fait mieux comprendre le référencement, et le fait que ça peut être rigolo (cf le bétisier) et naturel 😉

  8. Super première partie de compte rendu ! Concernant les mythes, c’est un peu toujours la même chose : certains sont compliqués à prouver, dans un sens comme dans l’autre. “Enregistrer un nom de domaine sur 10 ans aide au SEO – NON à 100 %”… on peut toujours dire oui ou non, c’est difficilement prouvable, et même impossible. L’idée est extraite de ce document me semble-t-il : http://www.google.com/patents/US7346839

    Après, l’affirmer ou non… même un test inclura des facteurs qu’on ne pourra dissocier les uns de autres dans ce cas de figure.

  9. Merci pour ce très bon résumé. Comme j’ai assisté à d’autres conférences que les tiennes (à part une ou deux en commun), ça me permet d’avoir une idée de ce qui s’est dit. Si je peux me permettre, j’aimerais compléter ton paragraphe sur SEO et Big Data par mon article sur le sujet, qui reprends plus en détail ce qui a été dit lors de cette conférence justement. Voici le lien: http://www.train2solution.com/seo/analytics-ne-suffit-pas-comment-mesurer-et-analyser-son-referencement-539/

  10. Parfait comme résumé, bien fourni en tout cas et illustré qui plus est ! 🙂

    Pour revenir sur la table ronde MythBuster à mon tour, et c’est aussi mon sentiment global au SEO, tout est question de contexte, de détail et de savoir si un critère a un impact positif direct ou indirect. Comme le disent les frères Peyronnet, il est important de faire la part des choses entre la causalité et la corrélation.

    Sinon, la photo avec Olivier Andrieu, ça fait FanGirl 😉 (mais au moins tu as une photo avec lui ^^)

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

CommentLuv badge

Les liens des commentaires peuvent être libérés des nofollow.