A l’occasion des 20 ans de Google, nous vous donnions quelques informations sur les possibilités d’évolution du moteur de recherche. Certaines fonctionnalités étaient en pourparler, dont Google Discover, qui est actif aux États-Unis depuis peu de temps. Nous vous en disons davantage sur le sujet…

Google Discover : comment cela fonctionne-t-il ?

Annoncé en Septembre, Google Discover aurait pour but de présenter sur la page d’accueil Google, depuis toujours vierge de contenu, du contenu « suggéré » (images, articles, vidéos et actualités), personnalisé en fonction des centres d’intérêts, dernières recherches et derniers articles lus des internautes. Cette fonctionnalité est accessible aux États-Unis depuis fin Octobre. Il est également possible d’y accéder en réglant le pays du moteur de recherche sur « États-Unis » et la langue sur « Anglais ».

Cette version propose, sous la barre de recherche, plusieurs « cartes » pointant vers différents articles. Il est également possible d’effectuer des réglages pour obtenir un journal personnalisé en fonction des sujets qui nous intéressent.

SEO : comment s’adapter à cette « révolution » ?

Nous connaissions la position zéro, qui consiste, pour le moteur de recherche, à intégrer des éléments de contenu avant même le premier résultat de recherche. Si cette position zéro est très intéressante en termes de SEO, il va devenir encore plus avantageux d’apparaître dans Google Discover, dans la mesure où cette page s’affiche avant même la saisie d’une requête.

Il est fort probable que cette fonctionnalité soit très vite déployée en France et que les critères a optimiser pour apparaître dans Google Discover soient bientôt disponibles… Il s’agira alors d’un nouveau canal pour optimiser sa visibilité sur le web et pour générer du trafic naturel

Cet article vous a intéressé ? Vous souhaitez optimiser votre visibilité sur Google ? Consultez notre page dédiée au sujet ou contactez-nous pour plus d’informations sur le référencement naturel.

Source : Abondance

Il semblerait que ces derniers temps, la taille idéale des balises « title » ai été modifiée deux fois par l’algorithme Google. Jusqu’alors, la taille idéale était de 55 caractères en version desktop. Faisons le tour des récentes modifications et des impacts que cela entraîne dans la rédaction de ses balises Title.

Taille des balises Title : quels changements ont été observés ?

Les spécialistes ont repéré des changements dans la taille idéale de la balise Title à deux reprises, autour des 11 et 27 Septembre : celle-ci aurait été progressivement augmentée.

Depuis la fin du mois de Septembre, la taille idéale de la balise Title serait de 75 caractères en version desktop, ce qui représente une haute évolution (+36% !) et laisse donc davantage de place pour y inclure mots-clés et informations. Elle serait même passée à 80 caractères aux Etats-Unis.

Cependant, ce nombre de caractère semble rester identique en version mobile (une cinquantaine de caractères). Le nombre de caractères de la méta description semble inchangé également (165 caractères).

Quels impacts en SEO ?

Il est tout d’abord conseillé de vérifier sur le long terme cette mise à jour de l’algorithme avant de pouvoir modifier ses différentes balises Title.

Dans le cas où cette mise à jour serait validée, le nombre de caractères à optimiser reste variable dans la mesure où l’affichage de la balise Title dépend de la largeur des caractères. Il est donc conseillé de placer ses informations importantes en début de titre afin d’optimiser sa visibilité. De même, pour un titre de plus de 50 caractères, la fin du titre sera masquée sur la version mobile.

Rappelons toutefois que si Google n’affiche pas la balise en entier dans ses résultats de recherche, le contenu qui y est présent est lui pris en compte par le moteur de recherche, et donc peut servir bénéfiquement au référencement du site.

Sources : Le Ptit Digital, Abondance, BDM

speed update

Si la vitesse de chargement des pages a toujours été considérée comme un critère important dans le référencement naturel, cela est devenu officiel récemment. Il a en effet été annoncé par Google qu’une mise à jour de l’algorithme aurait lieu en Juillet : la Google Speed Update.

Quelques précisions sur cette mise à jour

Il a été annoncé sur Twitter par Vincent Courson et John Mueller que la Google Speed Update serait mise en place en Juillet, pénalisant les sites les plus lents et les faisant reculer dans les résultats de recherche. Il faut cependant préciser que cette mise à jour n’aura un impact négatif que sur les sites très lents. C’est donc une faible partie des requêtes qui est concernée. À l’inverse, elle n’entrainera aucun impact positif sur les sites très rapides.

John Mueller a cependant précisé qu’un site lent effectuant les modifications nécessaires pour améliorer la vitesse de chargement de ses pages pourrait voir des résultats significatifs rapidement sur son positionnement.

Il faut également savoir que cette mise à jour ne concerne que les résultats mobiles. Dans la mesure où ceux-ci représentent tout de même 37% des requêtes (Étude SEMrush 2017), il est donc tout à fait important d’optimiser son site concernant la vitesse de chargement.

Enfin, précisons que si le temps de chargement est un critère pris en compte par l’algorithme de Google, celui-ci continue de prendre en compte la qualité de contenu des pages, et peut donc faire passer une page plus lente avant dans les résultats de recherche si celle-ci propose du contenu plus qualitatif qu’une page très rapide.

Comment définir la vitesse de chargement de son site ?

Il existe plusieurs outils pour analyser la vitesse de chargement, comme par exemple Lighthouse et PageSpeed Insights. Ces outils permettent de donner des signaux « vert », « jaune » ou « orange », et d’avoir ainsi de la visibilité sur les éléments à améliorer pour ne pas pénaliser son positionnement à cause de cette mise à jour.

Sources : Abondance, LePtiDigital, Blog du Modérateur

Structure site

La structure d’un site Internet est le premier levier à optimiser pour le référencement naturel. On compte entre autres dans la structure d’un site Internet la façon d’organiser les pages entre elles et la structure des URLs. IziWeb Crea développe ce point aujourd’hui.

URLs courte et pages profondes : les dernières annonces de Google

S’il est admis dans les règles du référencement naturel que les URLs doivent être courtes pour optimiser le référencement, John Mueller a déclaré récemment que l’algorithme de Google tenait davantage compte de la facilité à atteindre une page que de sa structure d’URL.

En effet, lors du hangout du 1er juin dernier, John Mueller répondait à un commerçant sur la pertinence de lier deux pages « magasin 1 » et « magasin 2 » à une page intermédiaire « magasins ». On y apprenait que le nombre de slash « / » présents dans l’URL n’avait aucune importance pour le robot et qu’une URL composée de plusieurs répertoires n’est pas moins optimisée pour le référencement naturel. Par exemple, une page « site.com/categorie/sous-categorie/produit » ne serait pas moins optimisée qu’une page « site.com/categorie/produit ».

Cependant, John Mueller ajoutait que Google accorderait davantage d’importance aux pages qui sont accessibles facilement. Concrètement, une page serait mieux référencée si elle est accessible depuis la page d’accueil que si elle nécessite un nombre de clics importants, quelle que soit sa structure d’URL. Il est donc pertinent de développer le maillage interne d’un site Internet en mettant en avant les pages profondes à référencer directement accessibles depuis la page d’accueil et/ou les pages principales du site Internet.

La structure de site : levier le plus important ?

Il est à remarquer également que Google communique de plus en plus sur l’importance de la structure du site. On peut en déduire que ce paramètre aurait de plus en plus d’impact sur le classement des sites Internet dans une page de résultats…

SEO local

Commerces locaux, le SEO n’est plus une option. Iziweb Crea reprend les 14 points d’une infographie de Yeah!Local qui démontre tout l’intérêt d’opter pour le SEO lorsque l’on veut une visibilité locale dans les résultats de recherche.

Le SEO : les avantages par rapport à la publicité

Pourquoi le SEO est la meilleure stratégie de visibilité locale ? Tout d’abord parce que malgré les nombreuses mises-à-jour de l’algorithme Google, il est toujours possible de travailler son site de sorte à optimiser son positionnement. De plus, cette solution reste plus abordable que les autres options de publicité en ligne ou hors ligne.

Par rapport à la publicité, le SEO est également plus naturel (comme son nom l’indique), moins intrusif et mieux accueilli par les internautes. Le SEO confère davantage de crédibilité au site. Le nombre de conversions est donc plus important que par rapport à d’autres stratégies de publicité.

De même, ne pas être trouvable sur Google peut tout autant générer de la méfiance de la part de l’internaute qui n’iront peut-être pas au bout de la conversion.

S’adapter au comportement mobile

Face au nombre de recherches effectuées sur mobile, optimiser son site Internet pour le référencement mobile (voir notre article sur le mobile first) peut être un véritable axe de différenciation par rapport à ses concurrents. La plupart des internautes ne regarde généralement que la première page, ce qui est un argument supplémentaire pour y être positionné.

Un travail sur le long terme et pérenne

Si travailler son référencement peut demander plusieurs mois avant de voir des résultats, le retour sur investissement est bien réel. Une étude de Brafton.com a même démontré que 70% des petits commerces locaux ayant investi dans le SEO ont amélioré leurs résultats financiers. De plus, une fois que le SEO est travaillé et que les résultats sont bien présents, le positionnement est stable sur le long terme.

Source : Abondance

seo 2018

Ce 20 Février dernier, John Mueller a répondu aux dernières questions des référenceurs sur Google Webmaster Central office-hours Hangouts. Iziweb Crea fait le point sur les 5 annonces SEO à retenir.

5 annonces SEO à retenir

  • Les données structurées

Pour rappel, les données structurées sont des balises que l’on trouve dans le code d’une page web, servant à décrire un élément. Par exemple, pour une recette, les données structurées peuvent renseigner les ingrédients ou le temps de cuisson. Pour un film, cela permettra de renseigner la durée, le réalisateur… Ces balises permettent de bénéficier de « rich snippets » (éléments supplémentaires comme par exemple les avis, les prix…), visibles directement sur Google. Comme il est d’usage de le faire pour le contenu sur le web, John Mueller a rappelé que le contenu des données structurées devait être unique pour chaque page.

  • Le crawl des pages 404 et 410

Il a également rappelé que le crawl des pages 404 et 410 n’est pas un signal négatif : Google peut être amené à visiter les pages 404 si ses capacités de crawl lui permettent et pour vérifier que celles-ci ne sont pas revenues en 200. Il est donc conseillé de ne pas empêcher le crawl de ces pages.

  • Quelques informations sur les liens

Il a également été dit qu’un lien, interne ou externe, placé en haut de page n’a pas plus d’impact qu’un lien placé plus bas. De même, un lien créditant un auteur est considéré et pris en compte par le moteur de recherche comme n’importe quel autre lien.

  • Pour les sites multilingues

John Mueller a également donné quelques informations concernant les sites disponibles en plusieurs langues. Afin que le moteur de recherche puisse crawler toutes les versions d’une page, il est préférable de ne pas faire de redirection automatique vers la version la plus adaptée à l’utilisateur mais de laisser le choix à celui-ci grâce par exemple à une bannière Javascript.

  • Search Console : ancienne et nouvelle versions

Enfin, suite au lancement de la nouvelle version de la Search Console, il a été annoncé que l’ancienne version serait disponible jusqu’à ce que tous les rapports soient disponibles dans la nouvelle version.

Source : Le Ptit Digital

mobile first

Depuis quelques temps, Google communique sur son projet Mobile First, qui consiste à explorer la version mobile des sites Internet et à les référencer en conséquence. Le mois dernier, le moteur de recherche publiait ses derniers conseils pour bien se préparer au projet…

Rappels sur le projet Mobile First

Annoncé depuis déjà 2016, le projet Mobile First risque de modifier considérablement la façon dont Google analyse les sites Internet. En effet, ce sera prochainement la version mobile du site qui sera davantage prise en compte, au lieu de la version desktop, qui était la version explorée par l’algorithme depuis toujours.

Le trafic sur mobile prenant de plus en plus d’ampleur, il était devenu indispensable de posséder un site responsive, pour le confort des utilisateurs. Avec cette réforme de Google, il est maintenant essentiel de soigner la version mobile de son site Internet pour son référencement !

Quels sont alors les recommandations du moteur de recherche Google pour bien préparer son site à ce grand changement à venir ?

Tous les conseils pour préparer son site au Mobile First

Il est tout d’abord recommandé de fournir un contenu similaire entre la version desktop et la version mobile : le texte, les images et leur attribut alt, les vidéos… De même, les données structurées et les métadonnées (les titres, méta description et hreflang) doivent figurer sur les deux versions et être identiques.

Les liens hreflang, utilisés pour l’internationalisation, doivent faire l’objet d’un travail particulier : les hreflang pour mobile doivent renvoyer vers les versions des URL pour mobile, et de même pour les hreflang pour desktop.

Concernant l’hébergement, il est conseillé de vérifier que les serveurs ont la capacité de gérer la fréquence d’exploration. Cependant, ce point concerne uniquement les sites hébergés sur un autre hôte (les sites de type m.).

Source : abondance.

EMD

En référencement, un EMD (Exact Match Domain) désigne un nom de domaine reprenant une requête exacte, correspondant à la thématique du site Internet, par exemple : restaurant-lille.com. Utiliser un EMD est une technique autrefois utilisée par les référenceurs pour booster le SEO de leurs sites. Mais qu’en est-il de cette stratégie aujourd’hui ?

EMD

L’intérêt des EMD en référencement ?

Il y a quelques années, utiliser un EMD avait un poids considérable dans le référencement d’un site pour deux raisons principales :

  • Tout d’abord, le nom de domaine reprend les termes exacts de la requête sur laquelle on souhaite se positionner,
  • Ensuite, parce qu’il est alors beaucoup plus simple d’obtenir des backlinks sur le mot clé en question.

Beaucoup de référenceurs ont donc utilisé cette technique de façon abusive, donnant lieu à des URL du type pizzeria-bordeau-pas-cher.com… Suite à quoi, Google a lancé deux mises à jours de son algorithme au début des années 2010, visant à baisser le poids accordé à la présence des mots clés dans le nom de domaine et à dévaloriser les sites abusant de ce type de technique.

Les EMD aujourd’hui : un effet négatif ?

Aujourd’hui, utiliser un EMD n’a plus le même impact qu’il y a 5 ans. Si la présence de mots clés dans le nom de domaine peut avoir un effet positif, celui-ci est très faible et cela ne suffit pas à positionner un site sur la requête correspondante.

De plus les EMD présentent plusieurs inconvénients. Ils limitent le développement de la marque et créent des confusions puisque la marque n’est pas apparente dans l’URL du site Internet, ils peuvent être très chers, sans parler du risque de suroptimisation sanctionné par Google.

Comment optimiser son URL ?

Le mieux est de choisir le nom de son entreprise comme nom de domaine. Cela réduit le taux de rebond, prolonge le temps de visites des internautes, ce qui a un poids considérable dans le référencement du site. De plus, cela est également judicieux pour une bonne image de marque et une meilleure crédibilité auprès des internautes.

Sources : Cibleweb.com, 1and1.fr

avis clients

Toute entreprise aime mettre en valeur les avis clients favorables sur son site Internet, dans la mesure où ils ont un pouvoir non négligeable sur leur crédibilité et leur e-reputation. La plupart des internautes tiennent compte des avis avant de faire un achat en ligne, se renseignent sur les réseaux sociaux ou sur des plateformes telles que Yelp ou TripAdvisor avant de se décider. Mais les avis clients peuvent aussi avoir un poids dans le référencement.

avis clients

Comment les avis clients influencent le référencement d’un site ?

Les moteurs de recherche utilisent maintenant les avis clients en tant que « contenu », de la même façon qu’ils analysent le contenu du site en lui même, pour ajuster les positions dans les pages de résultats de recherche.

Les robots tiennent alors compte de plusieurs éléments dans leur algorithme : le nombre d’avis par site, la crédibilité des sites sur lesquels sont postés les avis, le nombre de sites différents et le score moyen accordé par les internautes.

Les « rich snippets » affichés sur les pages de résultats (prix, avis, date et lieu d’événements…) et générés par les robots grâce à un fichier de développement, permettent d’améliorer la lisibilité des résultats et donc d’améliorer la visibilité du site dans les SERP. Si celui-ci comporte des avis positifs (sous forme de note), Google le prendra en compte. Celui-ci a cependant annoncé que le développement des rich snippets ne garantissait pas leur apparition dans une page de résultats.

Comment jouer sur ce levier ?

Leur impact étant non négligeable, il est très important de pousser ses clients à donner leur avis s’ils ont été satisfait de leur produit ou de leur prestation. La première étape est de créer un profil sur plusieurs réseaux sociaux, sur Google My Business et sur des annuaires correspondant à son secteur d’activité.

Il est positif pour le référencement également de répondre aux avis laissés sur toute plateforme, car cela constitue un contenu plus important et témoigne de la réactivité du site.

Sources : 1ère position, Brand Advocacy

PBN

Le travail des référenceurs comporte de nombreuses techniques : travail sur la structure du site, travail sur son contenu, netlinking… Certaines pratiques sont plus ou moins bien vues par Google et peuvent donc présenter des risques de sanctions. Le « PBN » est l’une des grandes tendances du moment.

PBN

PBN : quelle est leur utilité ?

L’abréviation PBN, pour « Private Blog Network », désigne un réseau de sites Internet créé dans le but de mettre en place artificiellement un grand nombre de liens vers un site principal. Cela permet alors de faire remonter le site dans les résultats de recherche. Utiliser un réseau de sites pour référencer un site permet au référenceur des créer un grand nombre de liens à sa guise et d’améliorer le positionnement de son site (ou de celui de son client) de façon très rapide. De plus, on utilise généralement pour cela des noms de domaines expirés : les sites du réseau bénéficient alors du l’ancienneté du nom de domaine et les backlinks ont donc plus de poids.

Cette technique est considérée comme du « spam » pour Google. Relevant du « Black hat SEO », la technique du PBN présente donc des risques si l’on décide de l’utiliser pour référencer ses sites.

Quel est le risque d’utiliser des PBN ?

Les sites et blogs qui constituent les PBN sont généralement des réseaux de sites « bourrés de liens », qui ne sont jamais consultés, présentant des contenus de faible qualité qui ont uniquement pour but de placer des liens sur des ancres particulières.

Étant donné que cette technique se démocratise de plus en plus auprès des référenceurs, il est possible que Google mette un jour en place une nouvelle mise à jour de son algorithme, qui sanctionne les sites utilisant cette technique.

Ceux-ci peuvent donc se voir perdre un nombre important de positions au mieux, ou disparaître complètement des moteurs de recherche dans le pire des cas.

Il est donc préférable d’utiliser des techniques plus propres : travail sur la structure du site, sur son contenu, utilisation de sites qualitatifs, rédaction de contenu unique… Votre site vous remerciera !

Sources : Abondance, Shadow Blog