Le 7 et 8 Juin à Paris se déroulait la troisième édition du salon destiné aux professionnels. En rapport au référencement White Hat : Le SMX ! Tout le monde n’a pas la possibilité de se déplacer jusqu’à la capitale. Ainsi, certain référenceurs ont sûrement fais l’impasse pour se rendre au barcamp Black Hat d’Aix en Provence. Qui est, étrangement organisé à la même date… . Bref, je vous propose donc un retour sur les sujets abordés qui m’ont paru pertinents.
Le SMX est l’occasion de rencontrer les professionnels que vous avez l’habitude de suivre sur internet. En effet, on y apprends beaucoup et c’est plus rapide que de passer par un formulaire de contact. Ces, deux jours de conférences on vue une trentaine d’intervenants différents défilés sur scène. Ainsi, parmi eux des webmasters, des référenceurs, des agences Web, des propriétaires de site internet, des anciens de chez Google. Mais également, même des autodidactes à la limite du black hat.
S’adapter au au web social
Beaucoup de référenceurs se sont posés la question. Les liens provenant des réseaux sociaux sont ils un critère important pour Google ? Un lien repris par plusieurs internautes sur des réseaux sociaux montre sa pertinence. En effet ce sont des personnes réelles qui font le choix de partager cette information. Ce qui leur semble donc intéressante. L’algorithme de Google ne peut ignorer cet effet « buzz ». Ainsi, ces liens naturels provenant directement des utilisateurs. Cependant, le moteur de recherche a indiqué que les liens de son réseau social Google+ étaient effectivement pris en compte. Mais que leur efficacité était relative. Est-ce un moyen de prévenir l’effet spam ? D’éviter la création de faux comptes par milliers renvoyant tous un lien vers un site internet non pertinent ?
Le concept d’empreinte sociale
Google aurait-il fait le choix de ne pas mettre en avant les sites internet. De ce fait, profitant de nombreux backlinks de réseaux sociaux. Mais plutôt de déprécier les sites internet n’ayant aucune visibilité sociale ? L’empreinte sociale représenterait donc cette visibilité sur les réseaux sociaux. Nous pouvons imaginer que Google s’assure seulement de la présence d’un site internet. Qui est présent, sur les réseaux sociaux pour légitimer que le site attire bien des utilisateurs réels. A contrario un site internet n’étant pas présent sur les réseaux sociaux sera peut être moins bien considéré. Tout du moins, par le moteur de recherche.
S’adapter aux changements algorithmiques
Plusieurs conférenciers sont venu parler de l’impact de Panda et Penguin sur leurs sites internet, de quoi y voir un peu plus clair sur le fonctionnement des deux animaux. Ce que l’on peut dire c’est que Google a beaucoup évolué depuis l’époque sacrée du Keyword stuffing en image de fond, le moteur de recherche est maintenant capable de mieux comprendre la thématique de chaque page, attention donc aux backlinks provenant de site internet complètement hors sujet.
Nous avons également pu constater l’importance des choix d’ancre de liens à travers l’exemple d’un site internet s’étant fait pénalisé par Penguin à cause d’une campagne de netlinking très agressive et peu réfléchie. Pour s’adapter il n’y a qu’une solution : diversifier les ancres de lien. Votre stratégie de backlinks doit sembler complètement naturelle, une centaine de liens avec la même ancre de lien paraît plutôt être l’œuvre d’un référenceur, il faut donc varier le plus possible ses ancres et ne pas oublier de placer des ancres non optimisées comme « Lire l’article ici » ou « Cliquez ici » qui représente environ 30% des liens dans le cadre d’un référencement 100% naturel.
Google, don’t be evil
Ce salon a aussi était l’occasion de réfléchir sur la stratégie du géant des moteurs de recherche : Il ne veut plus de site internet sur-optimisé par des référenceurs. Finis donc les pages optimisées sur une expression clef, si un référenceur est capable de le détecter Google l’est sûrement lui aussi. Il faut donc penser à un référencement plus subtil, plus réfléchis et apparaissant comme complètement naturel pour Google. Et puis, il faut rappeler qu’un référenceur est une alternative au service Adword, c’est donc un manque à gagner pour le moteur de recherche. L’appartition future du web sémantique avec le Knowledge Graph est encore un moyen de conserver l’internaute sur Google, de centraliser les informations au détriment des autres site internet comme Wikipédia par exemple.
De plus, après avoir sanctionné les comparateurs d’achat il y a un peu plus d’un an et avoir lancé son propre outil : Google Shopping, le moteur de recherche a annoncé qu’il serai bientôt possible de payer pour y être mis en avant, une façon de rafler toute la part du gâteau encore une fois ?
Un ancien de chez Google nous a également éclairer sur les choix de communication de son ex-entreprise. Ainsi, nous avons appris que Panda et Penguin étaient déjà en activité avant l’annonce officielle de leur existence, l’équipe se contente de mettre un coup de vis un peu plus fort le jour du lancement officiel afin de créer un buzz mondial lui offrant une énorme visibilité, qui n’a pas entendu parler de tel ou tel site qui est tombé dans les SERPS après Penguin ? Google qui ne communique quasiment pas par les médias traditionnels comme la télévision ou la radio profite de ces changements dans son algorithme pour s’offrir un magnifique coup de com !
Finalement, cette édition 2012 du SMX aura été l’occasion d’apprendre quelques petites astuces de référencement pendant les conférences mais le réel intérêt est de pouvoir enfin rencontrer les pointures française du SEO pour pouvoir profiter de leur expérience.