"Zéro clic"

Une étude confirme la tendance «Zéro clic» sur les appareils mobiles et montre comment les internautes se comportent vis-à-vis d’extraits détaillés de Google. Le moteur de recherche modifie constamment les fonctionnalités de recherche afin d’améliorer la satisfaction des utilisateurs. Le Perficient Digital et AuthorityLabs ont analysé plus de 250 pages de résultats de recherches dans le but de comprendre l’impact des fonctionnalités proposées par Google telles que les snippets, les annonces, les carrousels, les answer box ou encore les sitelinks sur les taux de clics organiques (CTR).

Qu’est-ce que le « Zéro clic » ?

Aujourd’hui 49% des requêtes Google s’arrêtent à la page de résultats. En d’autres termes, les internautes s’arrêtent à la page de résultats Google et n’accèdent pas aux sites web référencés sur cette page. Plusieurs raisons peuvent expliquer ce phénomène.

  • Les résultats proposés ne correspondent à la recherche de l’internaute,
  • Les titres des pages suffisent à lui donner une réponse,
  • Les featured snippets et d’autres données structurées, deviennent de progressivement un moteur de réponse. L’objectif de Google n’est pas de diriger les internautes vers les sites les plus pertinents, son but est de leur servir directement la réponse.

Quel est l’impact du « Zéro clic » sur le CTR ?

Le « Zéro click » est beaucoup plus présent sur mobile (54,58%) que sur desktop (33,45%). Dans les deux cas, les résultats organiques restent au premier plan, mais sont largement impactés par le manque de clics sur les SERPs.

Perficient Digital souligne que le CTR des requêtes contenant des extraits enrichis (featured snippets) est légèrement supérieur au CTR des recherches qui n’incluent pas cette fonctionnalité, mais cette différence n’est pas énorme. Les requêtes sur les marques, en revanche, ont la tendance inverse, les taux de clics diminuent lorsque des  featured snippets sont fournis.

Comment réagir à la tendance « Zéro clic » ?

Pour éviter le « zéro clic », nous vous recommandons :

  • D’optimiser vos contenus en rédigeant des contenus pertinents et assez long. Travaillez sur des expressions susceptibles d’être recherchées.
  • Rédigez vos méta-descriptions qui attirent mais en axant plus sur les questions qui seront posées par les internautes surtout à l’ère de la recherche vocale.

Source :BDM

SEO 2020

Les tendances SEO sont en évolution permanente. Si vous souhaitez acquérir du trafic organique sur votre site web, il est essentiel de rester informé sur les mises à jour des moteurs de recherches. Alors, qu’est-ce que nous prépare Google en matière de SEO cette année? Voici quelques conseils pour s’y préparer.

Atteindre les « featured snippets » ou la position zéro

La position zéro est un format d’affichage SEO sur Google qui permet d’apporter une réponse directement à l’internaute qui effectue une recherche. Elle se situe entre les annonces Adwords et le premier résultat naturel. Cette position est pertinente pour être vu au maximum par les internautes. Pour atteindre les « featured snippets », vous devez faire en sorte que votre contenu soit compréhensible par les robots de Google en utilisant par exemple les listes à puces. Autre élément important : le référencement des images de votre site web. En complétant bien les balises « Alt », une image de votre site peut être sélectionnée par le moteur de recherche et apparaître en position zéro.

L’avènement du format WebP

Les formats habituels d’images utilisés sur les sites web tels que JPG,PNG ou GiF ne seront bientôt plus d’actualité. En effet, ils seront remplacés progressivement par le format WebP développé par Google, qui allège le poids des images. Un site lent peut nuire à votre référencement. Ce format permettra dit-on, d’intégrer plus d’images ou d’animations sur un site sans augmenter son temps de chargement.

Prendre en compte la recherche vocale

Google affirme que près de 20% des recherches seraient réalisées avec la voix. Lorsque les internautes parlent pour effectuer une recherche, ils emploient plus de mots ! Donc vous devez mettre l’accent dans vos contenus sur les mots clés longue traine pour être susceptible d’être sélectionné comme page pertinente par le moteur de recherches.

Utiliser tous les canaux du SEO

Votre site web n’est pas le seul canal par lequel vous pouvez atteindre votre audience. Vous pouvez utiliser vos mots-clés sur chaque plateforme où votre entreprise est présente: les réseaux sociaux, les sites de vidéos, les forums… N’hésitez pas à les utiliser dans les Hashtags de vos publications, dans vos interventions dans les forums car plus vos mots clés apparaitront au niveau de vos différents canaux de communication, plus vous aurez de chance d’être visible auprès des internautes !

La vidéo

Une vidéo retient vos visiteurs 2 minutes de plus sur votre site web. Intégrer une/des vidéo(s) permet d’augmenter votre visibilité auprès de votre public cible en 2020. En effet, le moteur comprenant un onglet vidéo qui fait remonter dans les résultats les sites contenant des vidéos.

Besoin de plus de conseils pour votre référencement naturel ? Faite appel à notre équipe pour vous accompagner dans votre stratégie SEO en 2020.

Source : Codeur.com 

Google BERT

BERT est la plus grande avancée depuis 5 ans dans la compréhension des recherches par Google. Selon le moteur de recherche, cette mise à jour marque ainsi l’histoire du Search pour 10 % des recherches.

BERT, un algorithme révolutionnaire

Google reste toujours très discret concernant les nouveautés de ses algorithmes. Plusieurs fois par an, la communauté SEO est informée par Google lorsqu’une mise à jour plus importante est déployée mais ne s’épanche pas trop sur le sujet. Cette fois ci, oui ! Google sors de l’ombre car il considère cette mise à jour comme « la plus grande amélioration du Search depuis 5 ans, et l’un des plus grands bons en avant de l’histoire du Search ».

Une technique de traitement du langage naturel des internautes.

Le but de la mise à jour déployée par Google est d’améliorer la compréhension des requêtes, afin de fournir des résultats plus pertinents notamment pour les requêtes formulées de manière naturelle. De plus, BERT permet à Google de mieux s’adapter  à la croissance des recherches vocales.

BERT permet de déterminer le sens précis des requêtes

L’acronyme BERT signifie «  Bidirectional Encoder Representations from Transformers ». Il a pour objectif de mieux comprendre le sens des relations entre les mots au sein d’une phrase entière, plutôt que de traiter les expressions et les mots un par un. Google cherche ainsi à déterminer le sens précis des requêtes car les recherches des internautes sont de plus en plus précises, où l’usage de certains mots de liaison notamment peuvent changer le sens d’une phrase.

Impact de BERT sur le référencement

Selon Google, BERT a un impact sur 10% des recherches (celles effectuées en anglais aux USA). Les requêtes constituées de peu de mots clés sont sans doute moins concernées par cette mise à jour.

BERT est-il opérationnel en français, en France ?

L’algorithme BERT est déployé aux Etats-Unis pour les requêtes en anglais et sera prochainement déployé dans d’autres langues et pays. Pour l’instant aucune date n’a été communiquée.

Peut-on optimiser son site pour BERT ?

Google précise bien qu’ « il n’est pas possible d’optimiser pour BERT ».  En revanche, cela ne veut pas dire que vous ne devez pas tenir compte de cette mise à jour. Pour des requêtes constituées de nombreux mots, et celles formulées à l’oral, Google comprendra beaucoup mieux ce que cherche l’internaute. Figureront dans les premiers résultats les pages qui répondent précisément aussi à cette demande. Donc si vos contenus sont superficiels ou imprécis, vous ne serez pas sélectionné pour figurer en tête des SERP. De ce fait, il est important d’élaborer des contenus de qualité (susceptibles d’intéresser les internautes) et surtout non dupliqués sur votre site web afin qu’il soit positionné favorablement sur les moteurs de recherches.

Cet article sur BERT vous a intéressé ? Vous souhaitez booster votre visibilité sur Google ? Consultez notre page dédiée au sujet ou contactez-nous pour plus d’informations sur le référencement naturel.

Source : BDM, Webrankinfo

 

 

 

 

 

nofollow

Depuis Septembre 2019, Google a annoncé l’arrivée de deux nouveaux attributs pour les liens : « sponsored » et « ugc ». Quelle nouveauté cela apporte-t-il ? Quelle différence avec l’attribut « nofollow » ? Quel impact sur le SEO ?

Deux nouveaux attributs viennent compléter l’attribut « nofollow »

L’attribut « nofollow » pour les liens existe depuis 2005, et indique au robot de Google de ne pas prendre en compte ce lien.

Cela permettait jusqu’alors de lutter contre le spam. En effet, la plupart des liens dans les forums et les commentaires sont en « nofollow », donc non pris en compte par Google, donc inintéressant pour le ranking. Ces espaces étaient donc libérés du spam.

L’attribut « nofollow » permettait également d’identifier les liens sponsorisés, vendus et affiliés. Depuis Septembre 2019, deux nouveaux attributs ont vu le jour pour préciser ces différents cas : « sponsored » et « ugc ».

Comment fonctionne cette nouvelle mise à jour de l’algorithme ?

L’attribut « sponsored » indique les liens sponsorisés et « ugc » les liens créés par des utilisateurs et non l’administrateur du site. Ils peuvent remplacer le « nofollow » ou bien le compléter.

Le grand changement est le suivant : depuis la mise à jour, ces attributs, ainsi que le « nofollow », sont devenus des « indices », que Google peut choisir de suivre ou non. Dans les mois à venir, Google pourrait donc tenir compte des attributs « nofollow », pour crawler, indexer et ranker. Cela ne s’appliquerait cependant que pour une partie de ces liens. La façon dont Google fera son choix reste inconnue.

Il n’est ni avantageux ni pénalisant d’utiliser ces attributs pour le SEO. Il est cependant obligatoire d’utiliser « nofollow » ou « sponsored » pour indiquer les liens sponsorisés. Dans le cas inverse, une pénalité pour lien artificiel peut être appliqué et le ranking peut être affecté.

Que retenir ?

En conclusion, Google décide de reprendre en compte les liens en « nofollow », de façon aléatoire, pour le référencement. De plus, l’utilisation du nouvel attribut « sponsored » est devenue obligatoire pour les liens sponsorisés.

Besoin de conseils pour optimiser votre référencement naturel ? Contactez notre équipe : nous vous accompagnons dans votre stratégie SEO et vous aidons à vous positionner dans les résultats de recherche.

Source : WebRankInfo

sous domaines

Il semblerait que la pratique qui consiste à louer un sous domaine pour du contenu n’ayant aucun rapport avec le domaine initial serait maintenant pénalisée par Google. Qu’est-ce donc que cette pratique ? Qu’a mis en place Google récemment ? Voyons le détail dans cet article…

Sous domaines loués : comment ça fonctionne ?

Il est devenu pratique courante pour les sites importants, généralement les médias et la presse, de louer leurs sous domaines à d’autres marques. Concrètement, un site officiel de journal ou de média peut louer un sous domaine à une autre entreprise qui y proposera son propre contenu, du contenu n’ayant aucun lien avec le journal. Par exemple, un site de codes promos peut louer un sous domaine auprès d’un média connu et y proposer son contenu alors que celui-ci n’a aucun rapport.

Quel est l’intérêt de ce type de location ?

Cet échange profite aux deux parties : il permet tout d’abord aux petites entreprises de bénéficier du très bon SEO des sites les plus importants, ainsi que de la notoriété et de la confiance que les internautes ont dans ces sites. De plus, il apporte un complément monétaire aux sites qui peuvent monétiser leur notoriété et leur bon positionnement.

La pénalisation des sous domaines

Google avait annoncé mi Août que cette pratique serait pénalisée à l’avenir. Concrètement, cela entrainerait donc une importante baisse de trafic pour les sites concernés. Un récent Tweet de Glenn Gabe indique que cette pénalisation est en cours : Google peut maintenant déterminer si le sous domaine a un réel rapport avec le domaine et si ce n’est pas le cas, pénaliser son positionnement. Il est donc estimé dans ce type de cas une chute de trafic de plus de 40% !

Il semble qu’actuellement, Google ne pénalise que les sous domaine et que le positionnement des domaines ne soit pas impacté. Cependant, il est tout à fait possible que l’algorithme finisse par pénaliser également les domaines sur le long terme.

Besoin d’accompagnement pour votre stratégie SEO ? Iziweb Crea optimise votre référencement naturel. Contactez-nous pour plus d’informations.

Source : BDM, LePtiDigital.

résultats de recherche
Avec la facilité d’accès à l’information, les internautes, et les jeunes internautes en particulier, ont développé un besoin d’obtenir un résultat toujours plus rapidement. Si on sait qu’un temps de chargement trop long sur un site internet fait fuir les utilisateurs, on constate le même comportement dans les résultats de recherche.

L’impact des snippets sur le trafic

Les featured snippets sont des extraits d’une page web définissant de façon claire et concise le terme de recherche tapé par l’internaute. Ces extraits sont placés dans un espace dédié dans les SERP, et souvent accompagnés des principales questions relatives à ce terme.

Les internautes se contentent de plus en plus de l’information affichée dans les snippets de Google, ce qui implique qu’ils ne prennent plus le temps de cliquer sur les pages pour bénéficier d’une information détaillée.

La présence de ces snippets sur une page de résultats ferait donc baisser d’environ 20 points le pourcentage de clics, comparé aux pages sans snippet où l’internaute se retrouve « contraint » de cliquer sur un lien et de chercher l’information qu’il souhaite lui-même.

Sachant que plus de la moitié des pages de résultats de recherche en affichent, il est possible qu’à terme, cela ait un impact majeur sur le référencement naturel. Il risque en effet d’être encore plus dur de générer du trafic vers son site web à l’avenir.

L’étude de la société Moz sur le sujet

La société Moz, spécialisée dans la vente de logiciels d’analyse de données marketing, a récemment réalisé une étude, qui met en avant les constats suivants :

  • La confiance dans la qualité du contenu est plus faible dans cette zone de résultats, ce qui fait qu’une bonne partie des répondants la prend en compte mais vérifie tout de même l’information ailleurs.
  • Plus l’internaute est jeune, et plus il se contentera des résultats des snippets.

On est de plus en plus dans une logique du « 1er sinon rien » : même sur la première page des résultats de recherche, rares sont ceux qui cliquent sur un lien situé après les 3 premiers résultats. Tout dépend également de la quantité d’information dont l’internaute a besoin : après tout, pourquoi cliquer si on a déjà obtenu la réponse que l’on souhaitait ?

Cela met en évidence l’importance de la position 0 des résultats de recherche. Dans certains cas, c’est le seul résultat réellement pris en compte par les internautes, et qui permet de donner au site un maximum de visibilité.

Regardez aussi notre article résumant les manières d’augmenter vos chances d’apparaître dans Google Actualités.

Vous souhaitez travailler votre référencement dans les résultats de recherche ? Contactez-nous pour un premier audit.

Il arrive que les pages d’un site Internet soient déplacées sur un nouveau domaine, que les URL soient modifiées ou que les pages soient totalement supprimées. Cela entraîne une impossibilité d’affichage de la page demandée, qui est alors remplacée par une page 404.

Pourquoi est-il nécessaire de configurer des pages 404 ?

Laisser la page 404 par défaut peut être pénalisant dans la mesure où beaucoup d’utilisateurs risquent de quitter votre site, retournant dans la barre de recherche afin de trouver le contenu souhaité autre part. Presque tous les sites proposent donc une redirection automatique ou manuelle vers la page d’accueil pour éviter cela, ou bien vers une page définie qui bien entendu n’est jamais choisie au hasard.

A noter : la présence de pages 404 ne pénalise pas le référencement naturel d’un site tant que leur nombre reste raisonnable. Consultez également cet article récapitulant les points importants en SEO en 2019.

Comment rendre cette page originale ?

Il faut déjà tenter de trouver une phrase amusante pour décrire le problème. Intégrer une illustration ou un élément de l’identité de marque pour accompagner cette phrase peut également être judicieux.

Le but est en fait de divertir l’internaute pour qu’il passe l’éponge sur le fait qu’il n’aura pas l’information qu’il souhaitait obtenir en se rendant sur la page.

Une page 404 bien construite prouvera aux visiteurs que vous ne laissez rien au hasard, que vous êtes pointilleux.

Quelques exemples dont il faut s’inspirer :

Le site worrydream.com, qui reprend la célèbre « Trahison des images » de René Magritte,  en intégrant à la page la même pipe accompagnée du slogan « Ceci n’est pas une page. »

Coca-cola-france.fr, qui utilise une canette vue du haut pour représenter le 0 du « 404 », et reprenant leur célèbre rouge pour colorer les deux 4.

Innocent.fr, qui a intégré une vidéo dans sa page 404, incitant à rester sur le site. Cela leur permet d’attirer l’attention des visiteurs sur autre chose que le fait que la page est indisponible.

Nike.com, qui inscrit l’expression « Temps Mort », et  propose directement les produits les plus vendus en France. Toutes les occasions sont bonnes pour vendre plus !

Faites appel à Iziweb Crea !

Si vous souhaitez que nous prenions en charge la construction de votre site web, comprenant la création et le remplissage des pages, mais aussi la création d’une charte graphique, la sécurisation ainsi que l’hébergement du site, contactez-nous sans plus attendre ! Nous nous assurerons également de son bon référencement sur les moteurs de recherche pour permettre à votre entreprise de gagner en visibilité.

SEO et UX : 2 notions opposées ?

Pour résumer, le SEO (référencement naturel) cherche l’optimisation pour les moteurs de recherche. L’UX (expérience utilisateur), elle, vise l’optimisation pour l’utilisateur. Ce n’est pas pour autant que ces 2 notions sont à distinguer. Au contraire, elles doivent se compléter et se servir réciproquement.

L’UX a maintenant une place centrale dans les algorithmes pour juger la pertinence et la qualité de votre site. Plus l’accès aux informations voulues par l’internaute est facile, et mieux il sera classé dans les résultats de recherche.

Quels critères pris en compte ?

Les critères les plus importants (soit ceux qui ont le plus fort impact sur votre référencement) sont les suivants : le contenu doit tout d’abord répondre au mieux à l’intention de recherche de l’internaute, Google parvient en effet à cerner les sites qui ont été conçus pour convenir aux robots plutôt qu’aux utilisateurs finaux, et les pénalise en conséquence. La richesse sémantique (vocabulaire soutenu et diversifié), la présence de CTA (« call-to-action »), et un bon maillage interne sont également des facteurs-clés. Un autre critère primordial pour une expérience utilisateur optimisée est de bâtir un site responsive (lisible sur tout type d’appareil, et si possible « mobile-first »). En effet, le trafic Internet provenant des mobiles représente à lui seul presque autant que celui des ordinateurs et tablettes combinés.

D’autres critères sont pris en compte pour l’analyse de pertinence de votre site web par les robots, mais ils auront un plus faible impact sur votre référencement. Ainsi, un site trop statique, des temps de chargement des pages trop longs, ou des URLs non sécurisées risqueront par exemple de pénaliser votre site dans leur ranking.

L’absence d’adresse postale, de n° de téléphone et de moteur de recherche interne n’ont a priori pas d’impact. De même pour les fautes d’orthographe, les couleurs et les polices d’écriture. Attention cependant car cela reste actuellement invérifiable. Beaucoup de référenceurs sont cependant d’accord sur ce point.

Un nouveau SEO ?

Plaire aux robots est une chose, mais c’est finalement aux utilisateurs qu’un site est réellement destiné. Google a alors réagi en intégrant des critères liés à l’expérience utilisateur pour le classement des résultats de recherche.

Afin de ne pas être pénalisé, votre site doit donc considérer le facteur « expérience utilisateur » à sa juste valeur. Il est nécessaire de rendre la navigation agréable et intuitive pour l’utilisateur. L’internaute ne doit pas avoir à réfléchir pour trouver ce qu’il désire. Il peut aussi être intéressant de l’inciter à interagir, le but étant de l’impliquer dans une relation avec votre entreprise.

Des audits UX peuvent ainsi vous permettre d’identifier des freins à l’ergonomie, et donc à votre référencement. De plus en plus, on parle de SXO (pour « Search eXperience Optimization ») en tant que « nouveau SEO ».

google_actu

Récemment, Google a, par le biais de Danny Sullivan, publié une liste de conseils permettant d’optimiser sa visibilité dans l’onglet « Actualités » du moteur de recherche. Voici donc un récapitulatif des bonnes pratiques à adopter pour cela.

Les balises à optimiser pour Google Actu

Pour commencer, il est possible d’optimiser plusieurs balises dans son article d’actualités. Tout d’abord, il conviendra de remplir les balises <Title> et <h1> avec du contenu explicite. C’est en effet les balises les plus importantes, elles doivent contenir les informations principales.

Les balises de données structurées peuvent également être optimisées. C’est le cas des balises <datePublished> ou <dateModified>, qui permettent de donner à Google des informations sur l’ancienneté d’un article.

Date et auteur : des éléments à faire apparaître

La date et l’heure de publication sont à faire apparaître entre le titre et le chapô pour optimiser leur prise en compte par l’algorithme. De même, il vaut mieux éviter de faire apparaître d’autres dates à d’autres endroits dans l’article, comme cela peut être le cas pour les « articles similaires », par exemple.

De même, si l’article a été modifié, il peut être pertinent de modifier alors la date de publication. Il ne faut cependant pas abuser de cette action, et éviter cela dans le cas de petites modifications…

Enfin, l’auteur doit apparaître dans l’article et la possibilité de contacter la rédaction doit être possible également (dans les mentions légales, par exemple).

Des pratiques à éviter…

Certaines pratiques de rédaction sont à oublier si l’on veut positionner son site dans Google Actualités. C’est notamment le cas du contenu dupliqué, réécriture, scrap… En effet, le moteur de recherche donne la priorité au contenu de qualité et unique.

Autre pratique considérée comme du spam par Google : créer de nouvelles URLs pour ensuite mettre en place des redirections, dans le cas d’un article présentant des modifications minimes. Cette technique est donc à bannir également.

Le référencement naturel vous intéresse ? N’hésitez pas à contacter notre équipe pour positionner votre site dans les moteurs de recherche…

Source : Abondance

Puisqu’il est bien connu que dans le domaine du SEO, les règles changent régulièrement et qu’il est essentiel de toujours adapter son travail, Iziweb Crea vous propose aujourd’hui quelques conseils pour optimiser votre SEO local en 2019.

Optimiser les titres et méta descriptions

Pour rappel, il s’agit du texte affiché dans les résultats de recherche. Il est dans un premier temps très important d’optimiser ces éléments avec les mots-clés sur lesquels vous souhaitez vous positionner, et parmi ceux-ci, des indications géographiques.

Être présent sur les annuaires en ligne

Les annuaires locaux comme les Pages Jaunes, Yelp, TripAdvisor sont des portes d’entrées supplémentaires qu’il est conseillé d’exploiter. L’astuce à retenir : toujours renseigner des informations identiques sur chaque site afin que le moteur de recherche comprenne et puisse ressortir l’information (coordonnées, horaires…). Dans le cas inverse, Google pourrait diffuser des informations non à jour ou incorrectes, voire ne pas les diffuser du tout…

Tirer profit de Google My Business

Considéré comme un annuaire, c’est surement le plus important. Les fiches Google My Business sont parfois créées automatiquement par Google, il faudra donc dans ce cas précis faire la demande de propriété. Par la suite, compléter au maximum sa fiche permettra de fournir à Google (et aux internautes) de nombreuses informations ainsi que d’accroitre sa visibilité en apparaissant dans l’encart My Business lors d’une recherche locale.

Utiliser le balisage de données structurées

Les données structurées sont un levier supplémentaire à exploiter pour améliorer son SEO. Elles permettent de fournir à Google des informations comme les produits et services proposés. Très peu de sites utilise ce balisage, cela peut donc faire toute la différence pour se démarquer des concurrents…

Vous souhaitez améliorer votre référencement et en particulier votre référencement local ? Contactez-nous, Iziweb Crea vous propose des prestations SEO pour améliorer votre visibilité…

Source : WebMarketing-com.com