Google BERT

BERT est la plus grande avancée depuis 5 ans dans la compréhension des recherches par Google. Selon le moteur de recherche, cette mise à jour marque ainsi l’histoire du Search pour 10 % des recherches.

BERT, un algorithme révolutionnaire

Google reste toujours très discret concernant les nouveautés de ses algorithmes. Plusieurs fois par an, la communauté SEO est informée par Google lorsqu’une mise à jour plus importante est déployée mais ne s’épanche pas trop sur le sujet. Cette fois ci, oui ! Google sors de l’ombre car il considère cette mise à jour comme « la plus grande amélioration du Search depuis 5 ans, et l’un des plus grands bons en avant de l’histoire du Search ».

Une technique de traitement du langage naturel des internautes.

Le but de la mise à jour déployée par Google est d’améliorer la compréhension des requêtes, afin de fournir des résultats plus pertinents notamment pour les requêtes formulées de manière naturelle. De plus, BERT permet à Google de mieux s’adapter  à la croissance des recherches vocales.

BERT permet de déterminer le sens précis des requêtes

L’acronyme BERT signifie «  Bidirectional Encoder Representations from Transformers ». Il a pour objectif de mieux comprendre le sens des relations entre les mots au sein d’une phrase entière, plutôt que de traiter les expressions et les mots un par un. Google cherche ainsi à déterminer le sens précis des requêtes car les recherches des internautes sont de plus en plus précises, où l’usage de certains mots de liaison notamment peuvent changer le sens d’une phrase.

Impact de BERT sur le référencement

Selon Google, BERT a un impact sur 10% des recherches (celles effectuées en anglais aux USA). Les requêtes constituées de peu de mots clés sont sans doute moins concernées par cette mise à jour.

BERT est-il opérationnel en français, en France ?

L’algorithme BERT est déployé aux Etats-Unis pour les requêtes en anglais et sera prochainement déployé dans d’autres langues et pays. Pour l’instant aucune date n’a été communiquée.

Peut-on optimiser son site pour BERT ?

Google précise bien qu’ « il n’est pas possible d’optimiser pour BERT ».  En revanche, cela ne veut pas dire que vous ne devez pas tenir compte de cette mise à jour. Pour des requêtes constituées de nombreux mots, et celles formulées à l’oral, Google comprendra beaucoup mieux ce que cherche l’internaute. Figureront dans les premiers résultats les pages qui répondent précisément aussi à cette demande. Donc si vos contenus sont superficiels ou imprécis, vous ne serez pas sélectionné pour figurer en tête des SERP. De ce fait, il est important d’élaborer des contenus de qualité (susceptibles d’intéresser les internautes) et surtout non dupliqués sur votre site web afin qu’il soit positionné favorablement sur les moteurs de recherches.

Cet article sur BERT vous a intéressé ? Vous souhaitez booster votre visibilité sur Google ? Consultez notre page dédiée au sujet ou contactez-nous pour plus d’informations sur le référencement naturel.

Source : BDM, Webrankinfo

 

 

 

 

 

nofollow

Depuis Septembre 2019, Google a annoncé l’arrivée de deux nouveaux attributs pour les liens : « sponsored » et « ugc ». Quelle nouveauté cela apporte-t-il ? Quelle différence avec l’attribut « nofollow » ? Quel impact sur le SEO ?

Deux nouveaux attributs viennent compléter l’attribut « nofollow »

L’attribut « nofollow » pour les liens existe depuis 2005, et indique au robot de Google de ne pas prendre en compte ce lien.

Cela permettait jusqu’alors de lutter contre le spam. En effet, la plupart des liens dans les forums et les commentaires sont en « nofollow », donc non pris en compte par Google, donc inintéressant pour le ranking. Ces espaces étaient donc libérés du spam.

L’attribut « nofollow » permettait également d’identifier les liens sponsorisés, vendus et affiliés. Depuis Septembre 2019, deux nouveaux attributs ont vu le jour pour préciser ces différents cas : « sponsored » et « ugc ».

Comment fonctionne cette nouvelle mise à jour de l’algorithme ?

L’attribut « sponsored » indique les liens sponsorisés et « ugc » les liens créés par des utilisateurs et non l’administrateur du site. Ils peuvent remplacer le « nofollow » ou bien le compléter.

Le grand changement est le suivant : depuis la mise à jour, ces attributs, ainsi que le « nofollow », sont devenus des « indices », que Google peut choisir de suivre ou non. Dans les mois à venir, Google pourrait donc tenir compte des attributs « nofollow », pour crawler, indexer et ranker. Cela ne s’appliquerait cependant que pour une partie de ces liens. La façon dont Google fera son choix reste inconnue.

Il n’est ni avantageux ni pénalisant d’utiliser ces attributs pour le SEO. Il est cependant obligatoire d’utiliser « nofollow » ou « sponsored » pour indiquer les liens sponsorisés. Dans le cas inverse, une pénalité pour lien artificiel peut être appliqué et le ranking peut être affecté.

Que retenir ?

En conclusion, Google décide de reprendre en compte les liens en « nofollow », de façon aléatoire, pour le référencement. De plus, l’utilisation du nouvel attribut « sponsored » est devenue obligatoire pour les liens sponsorisés.

Besoin de conseils pour optimiser votre référencement naturel ? Contactez notre équipe : nous vous accompagnons dans votre stratégie SEO et vous aidons à vous positionner dans les résultats de recherche.

Source : WebRankInfo

sous domaines

Il semblerait que la pratique qui consiste à louer un sous domaine pour du contenu n’ayant aucun rapport avec le domaine initial serait maintenant pénalisée par Google. Qu’est-ce donc que cette pratique ? Qu’a mis en place Google récemment ? Voyons le détail dans cet article…

Sous domaines loués : comment ça fonctionne ?

Il est devenu pratique courante pour les sites importants, généralement les médias et la presse, de louer leurs sous domaines à d’autres marques. Concrètement, un site officiel de journal ou de média peut louer un sous domaine à une autre entreprise qui y proposera son propre contenu, du contenu n’ayant aucun lien avec le journal. Par exemple, un site de codes promos peut louer un sous domaine auprès d’un média connu et y proposer son contenu alors que celui-ci n’a aucun rapport.

Quel est l’intérêt de ce type de location ?

Cet échange profite aux deux parties : il permet tout d’abord aux petites entreprises de bénéficier du très bon SEO des sites les plus importants, ainsi que de la notoriété et de la confiance que les internautes ont dans ces sites. De plus, il apporte un complément monétaire aux sites qui peuvent monétiser leur notoriété et leur bon positionnement.

La pénalisation des sous domaines

Google avait annoncé mi Août que cette pratique serait pénalisée à l’avenir. Concrètement, cela entrainerait donc une importante baisse de trafic pour les sites concernés. Un récent Tweet de Glenn Gabe indique que cette pénalisation est en cours : Google peut maintenant déterminer si le sous domaine a un réel rapport avec le domaine et si ce n’est pas le cas, pénaliser son positionnement. Il est donc estimé dans ce type de cas une chute de trafic de plus de 40% !

Il semble qu’actuellement, Google ne pénalise que les sous domaine et que le positionnement des domaines ne soit pas impacté. Cependant, il est tout à fait possible que l’algorithme finisse par pénaliser également les domaines sur le long terme.

Besoin d’accompagnement pour votre stratégie SEO ? Iziweb Crea optimise votre référencement naturel. Contactez-nous pour plus d’informations.

Source : BDM, LePtiDigital.

résultats de recherche
Avec la facilité d’accès à l’information, les internautes, et les jeunes internautes en particulier, ont développé un besoin d’obtenir un résultat toujours plus rapidement. Si on sait qu’un temps de chargement trop long sur un site internet fait fuir les utilisateurs, on constate le même comportement dans les résultats de recherche.

L’impact des snippets sur le trafic

Les featured snippets sont des extraits d’une page web définissant de façon claire et concise le terme de recherche tapé par l’internaute. Ces extraits sont placés dans un espace dédié dans les SERP, et souvent accompagnés des principales questions relatives à ce terme.

Les internautes se contentent de plus en plus de l’information affichée dans les snippets de Google, ce qui implique qu’ils ne prennent plus le temps de cliquer sur les pages pour bénéficier d’une information détaillée.

La présence de ces snippets sur une page de résultats ferait donc baisser d’environ 20 points le pourcentage de clics, comparé aux pages sans snippet où l’internaute se retrouve « contraint » de cliquer sur un lien et de chercher l’information qu’il souhaite lui-même.

Sachant que plus de la moitié des pages de résultats de recherche en affichent, il est possible qu’à terme, cela ait un impact majeur sur le référencement naturel. Il risque en effet d’être encore plus dur de générer du trafic vers son site web à l’avenir.

L’étude de la société Moz sur le sujet

La société Moz, spécialisée dans la vente de logiciels d’analyse de données marketing, a récemment réalisé une étude, qui met en avant les constats suivants :

  • La confiance dans la qualité du contenu est plus faible dans cette zone de résultats, ce qui fait qu’une bonne partie des répondants la prend en compte mais vérifie tout de même l’information ailleurs.
  • Plus l’internaute est jeune, et plus il se contentera des résultats des snippets.

On est de plus en plus dans une logique du « 1er sinon rien » : même sur la première page des résultats de recherche, rares sont ceux qui cliquent sur un lien situé après les 3 premiers résultats. Tout dépend également de la quantité d’information dont l’internaute a besoin : après tout, pourquoi cliquer si on a déjà obtenu la réponse que l’on souhaitait ?

Cela met en évidence l’importance de la position 0 des résultats de recherche. Dans certains cas, c’est le seul résultat réellement pris en compte par les internautes, et qui permet de donner au site un maximum de visibilité.

Regardez aussi notre article résumant les manières d’augmenter vos chances d’apparaître dans Google Actualités.

Vous souhaitez travailler votre référencement dans les résultats de recherche ? Contactez-nous pour un premier audit.

Il arrive que les pages d’un site Internet soient déplacées sur un nouveau domaine, que les URL soient modifiées ou que les pages soient totalement supprimées. Cela entraîne une impossibilité d’affichage de la page demandée, qui est alors remplacée par une page 404.

Pourquoi est-il nécessaire de configurer des pages 404 ?

Laisser la page 404 par défaut peut être pénalisant dans la mesure où beaucoup d’utilisateurs risquent de quitter votre site, retournant dans la barre de recherche afin de trouver le contenu souhaité autre part. Presque tous les sites proposent donc une redirection automatique ou manuelle vers la page d’accueil pour éviter cela, ou bien vers une page définie qui bien entendu n’est jamais choisie au hasard.

A noter : la présence de pages 404 ne pénalise pas le référencement naturel d’un site tant que leur nombre reste raisonnable. Consultez également cet article récapitulant les points importants en SEO en 2019.

Comment rendre cette page originale ?

Il faut déjà tenter de trouver une phrase amusante pour décrire le problème. Intégrer une illustration ou un élément de l’identité de marque pour accompagner cette phrase peut également être judicieux.

Le but est en fait de divertir l’internaute pour qu’il passe l’éponge sur le fait qu’il n’aura pas l’information qu’il souhaitait obtenir en se rendant sur la page.

Une page 404 bien construite prouvera aux visiteurs que vous ne laissez rien au hasard, que vous êtes pointilleux.

Quelques exemples dont il faut s’inspirer :

Le site worrydream.com, qui reprend la célèbre « Trahison des images » de René Magritte,  en intégrant à la page la même pipe accompagnée du slogan « Ceci n’est pas une page. »

Coca-cola-france.fr, qui utilise une canette vue du haut pour représenter le 0 du « 404 », et reprenant leur célèbre rouge pour colorer les deux 4.

Innocent.fr, qui a intégré une vidéo dans sa page 404, incitant à rester sur le site. Cela leur permet d’attirer l’attention des visiteurs sur autre chose que le fait que la page est indisponible.

Nike.com, qui inscrit l’expression « Temps Mort », et  propose directement les produits les plus vendus en France. Toutes les occasions sont bonnes pour vendre plus !

Faites appel à Iziweb Crea !

Si vous souhaitez que nous prenions en charge la construction de votre site web, comprenant la création et le remplissage des pages, mais aussi la création d’une charte graphique, la sécurisation ainsi que l’hébergement du site, contactez-nous sans plus attendre ! Nous nous assurerons également de son bon référencement sur les moteurs de recherche pour permettre à votre entreprise de gagner en visibilité.

SEO et UX : 2 notions opposées ?

Pour résumer, le SEO (référencement naturel) cherche l’optimisation pour les moteurs de recherche. L’UX (expérience utilisateur), elle, vise l’optimisation pour l’utilisateur. Ce n’est pas pour autant que ces 2 notions sont à distinguer. Au contraire, elles doivent se compléter et se servir réciproquement.

L’UX a maintenant une place centrale dans les algorithmes pour juger la pertinence et la qualité de votre site. Plus l’accès aux informations voulues par l’internaute est facile, et mieux il sera classé dans les résultats de recherche.

Quels critères pris en compte ?

Les critères les plus importants (soit ceux qui ont le plus fort impact sur votre référencement) sont les suivants : le contenu doit tout d’abord répondre au mieux à l’intention de recherche de l’internaute, Google parvient en effet à cerner les sites qui ont été conçus pour convenir aux robots plutôt qu’aux utilisateurs finaux, et les pénalise en conséquence. La richesse sémantique (vocabulaire soutenu et diversifié), la présence de CTA (« call-to-action »), et un bon maillage interne sont également des facteurs-clés. Un autre critère primordial pour une expérience utilisateur optimisée est de bâtir un site responsive (lisible sur tout type d’appareil, et si possible « mobile-first »). En effet, le trafic Internet provenant des mobiles représente à lui seul presque autant que celui des ordinateurs et tablettes combinés.

D’autres critères sont pris en compte pour l’analyse de pertinence de votre site web par les robots, mais ils auront un plus faible impact sur votre référencement. Ainsi, un site trop statique, des temps de chargement des pages trop longs, ou des URLs non sécurisées risqueront par exemple de pénaliser votre site dans leur ranking.

L’absence d’adresse postale, de n° de téléphone et de moteur de recherche interne n’ont a priori pas d’impact. De même pour les fautes d’orthographe, les couleurs et les polices d’écriture. Attention cependant car cela reste actuellement invérifiable. Beaucoup de référenceurs sont cependant d’accord sur ce point.

Un nouveau SEO ?

Plaire aux robots est une chose, mais c’est finalement aux utilisateurs qu’un site est réellement destiné. Google a alors réagi en intégrant des critères liés à l’expérience utilisateur pour le classement des résultats de recherche.

Afin de ne pas être pénalisé, votre site doit donc considérer le facteur « expérience utilisateur » à sa juste valeur. Il est nécessaire de rendre la navigation agréable et intuitive pour l’utilisateur. L’internaute ne doit pas avoir à réfléchir pour trouver ce qu’il désire. Il peut aussi être intéressant de l’inciter à interagir, le but étant de l’impliquer dans une relation avec votre entreprise.

Des audits UX peuvent ainsi vous permettre d’identifier des freins à l’ergonomie, et donc à votre référencement. De plus en plus, on parle de SXO (pour « Search eXperience Optimization ») en tant que « nouveau SEO ».

google_actu

Récemment, Google a, par le biais de Danny Sullivan, publié une liste de conseils permettant d’optimiser sa visibilité dans l’onglet « Actualités » du moteur de recherche. Voici donc un récapitulatif des bonnes pratiques à adopter pour cela.

Les balises à optimiser pour Google Actu

Pour commencer, il est possible d’optimiser plusieurs balises dans son article d’actualités. Tout d’abord, il conviendra de remplir les balises <Title> et <h1> avec du contenu explicite. C’est en effet les balises les plus importantes, elles doivent contenir les informations principales.

Les balises de données structurées peuvent également être optimisées. C’est le cas des balises <datePublished> ou <dateModified>, qui permettent de donner à Google des informations sur l’ancienneté d’un article.

Date et auteur : des éléments à faire apparaître

La date et l’heure de publication sont à faire apparaître entre le titre et le chapô pour optimiser leur prise en compte par l’algorithme. De même, il vaut mieux éviter de faire apparaître d’autres dates à d’autres endroits dans l’article, comme cela peut être le cas pour les « articles similaires », par exemple.

De même, si l’article a été modifié, il peut être pertinent de modifier alors la date de publication. Il ne faut cependant pas abuser de cette action, et éviter cela dans le cas de petites modifications…

Enfin, l’auteur doit apparaître dans l’article et la possibilité de contacter la rédaction doit être possible également (dans les mentions légales, par exemple).

Des pratiques à éviter…

Certaines pratiques de rédaction sont à oublier si l’on veut positionner son site dans Google Actualités. C’est notamment le cas du contenu dupliqué, réécriture, scrap… En effet, le moteur de recherche donne la priorité au contenu de qualité et unique.

Autre pratique considérée comme du spam par Google : créer de nouvelles URLs pour ensuite mettre en place des redirections, dans le cas d’un article présentant des modifications minimes. Cette technique est donc à bannir également.

Le référencement naturel vous intéresse ? N’hésitez pas à contacter notre équipe pour positionner votre site dans les moteurs de recherche…

Source : Abondance

Puisqu’il est bien connu que dans le domaine du SEO, les règles changent régulièrement et qu’il est essentiel de toujours adapter son travail, Iziweb Crea vous propose aujourd’hui quelques conseils pour optimiser votre SEO local en 2019.

Optimiser les titres et méta descriptions

Pour rappel, il s’agit du texte affiché dans les résultats de recherche. Il est dans un premier temps très important d’optimiser ces éléments avec les mots-clés sur lesquels vous souhaitez vous positionner, et parmi ceux-ci, des indications géographiques.

Être présent sur les annuaires en ligne

Les annuaires locaux comme les Pages Jaunes, Yelp, TripAdvisor sont des portes d’entrées supplémentaires qu’il est conseillé d’exploiter. L’astuce à retenir : toujours renseigner des informations identiques sur chaque site afin que le moteur de recherche comprenne et puisse ressortir l’information (coordonnées, horaires…). Dans le cas inverse, Google pourrait diffuser des informations non à jour ou incorrectes, voire ne pas les diffuser du tout…

Tirer profit de Google My Business

Considéré comme un annuaire, c’est surement le plus important. Les fiches Google My Business sont parfois créées automatiquement par Google, il faudra donc dans ce cas précis faire la demande de propriété. Par la suite, compléter au maximum sa fiche permettra de fournir à Google (et aux internautes) de nombreuses informations ainsi que d’accroitre sa visibilité en apparaissant dans l’encart My Business lors d’une recherche locale.

Utiliser le balisage de données structurées

Les données structurées sont un levier supplémentaire à exploiter pour améliorer son SEO. Elles permettent de fournir à Google des informations comme les produits et services proposés. Très peu de sites utilise ce balisage, cela peut donc faire toute la différence pour se démarquer des concurrents…

Vous souhaitez améliorer votre référencement et en particulier votre référencement local ? Contactez-nous, Iziweb Crea vous propose des prestations SEO pour améliorer votre visibilité…

Source : WebMarketing-com.com
seo

Comme il en a l’habitude régulièrement, John Mueller a fourni récemment quelques informations à jour en termes de SEO, qu’il est intéressant de garder à l’esprit pour l’année 2019… Retour sur 7 affirmations SEO données par John Mueller via Hangout.

Indexation, référencement et contenu dupliqué

Le référencement des images dans Google Image s’apparente désormais au contenu textuel dans Google. Pour être référencée, l’image doit être unique (dimensions, aspect graphique, poids, etc). L’objectif est de ne pas proposer deux fois la même image dans les résultats pour les internautes.

Il en va de même pour le contenu dupliqué textuel. En cas de contenu dupliqué, Google n’indexera que le premier contenu trouvé, et ignorera les pages présentant du « duplicate content », qui ne seront donc pas indexées.

De plus, il ajoute que l’outil de suppression d’URL ne sert aucunement à désindexer une page mais simplement à la masquer temporairement des résultats de recherche.

Structure de site web et serveur web

Il est maintenant confirmé que les données structurées sont moins explorées par Google que le reste de la page. En cas de mise à jour majeure de ces types de données, il est alors conseillé de redemander une indexation au moteur de recherche en passant par la Search Console.

John Mueller a également parlé de la recherche vocale, pour laquelle il précise qu’aucune action n’est nécessaire pour optimiser un site, et confirmé que les liens externes sont bel et bien un « plus » pour les pages d’un site web, car ils permettent d’améliorer l’expérience utilisateur et d’aider le moteur de recherche à comprendre le contenu.

Enfin, l’emplacement géographique d’un serveur web n’a pas d’impact sur la vitesse de chargement des pages, il est cependant conseillé d’utiliser un CDN si le site s’adresse à plusieurs pays différents.

Vous êtes intéressé par l’optimisation SEO de votre site web ? Iziweb Crea s’en charge pour vous. N’hésitez pas à nous contacter pour plus d’informations.

Il semblerait que ces derniers temps, la taille idéale des balises « title » ai été modifiée deux fois par l’algorithme Google. Jusqu’alors, la taille idéale était de 55 caractères en version desktop. Faisons le tour des récentes modifications et des impacts que cela entraîne dans la rédaction de ses balises Title.

Taille des balises Title : quels changements ont été observés ?

Les spécialistes ont repéré des changements dans la taille idéale de la balise Title à deux reprises, autour des 11 et 27 Septembre : celle-ci aurait été progressivement augmentée.

Depuis la fin du mois de Septembre, la taille idéale de la balise Title serait de 75 caractères en version desktop, ce qui représente une haute évolution (+36% !) et laisse donc davantage de place pour y inclure mots-clés et informations. Elle serait même passée à 80 caractères aux Etats-Unis.

Cependant, ce nombre de caractère semble rester identique en version mobile (une cinquantaine de caractères). Le nombre de caractères de la méta description semble inchangé également (165 caractères).

Quels impacts en SEO ?

Il est tout d’abord conseillé de vérifier sur le long terme cette mise à jour de l’algorithme avant de pouvoir modifier ses différentes balises Title.

Dans le cas où cette mise à jour serait validée, le nombre de caractères à optimiser reste variable dans la mesure où l’affichage de la balise Title dépend de la largeur des caractères. Il est donc conseillé de placer ses informations importantes en début de titre afin d’optimiser sa visibilité. De même, pour un titre de plus de 50 caractères, la fin du titre sera masquée sur la version mobile.

Rappelons toutefois que si Google n’affiche pas la balise en entier dans ses résultats de recherche, le contenu qui y est présent est lui pris en compte par le moteur de recherche, et donc peut servir bénéfiquement au référencement du site.

Sources : Le Ptit Digital, Abondance, BDM