Référencement : le guide des 200 facteurs de classement sur Google

Publié le : 11 janvier 202486 mins de lecture
Dans nos articles, nous parlons fréquemment des  facteurs de positionnement utilisés par Google , un élément fondamental pour quiconque aborde les activités de référencement ou a simplement l’intention d’opérer en ligne et d’obtenir une visibilité organique. Le moment est donc venu de créer un véritable guide des  200 facteurs de classement sur Google, c’est-à-dire les deux cents et plus (prétendus) signaux, paramètres, indicateurs que le gigantesque algorithme de Google prend en considération pour créer ses SERP et proposer les pages de résultats à chaque requête faite par les utilisateurs, et qui représentent donc les éléments cruciaux pour ceux qui le font Référencement sur Google. Nous analyserons la liste complète des signaux de classement, en distinguant les officiels, les spéculés, les annoncés, etc., qui affectent tous les aspects du site Web et de ses pages.

Facteurs de référencement, guide de Google et de l’algorithme

Facteurs de référencement, guide de Google et de l'algorithmeAvant de nous lancer dans l’énumération de ces facteurs de classement, abordons une autre question délicate, à savoir le fonctionnement de l’algorithme de Google , qui reste in fine le juge ultime qui détermine le succès (ou l’échec) d’un site internet et d’une stratégie SEO. Un système qui, dans une large mesure, reste mystérieux également en raison du grand nombre de personnes et de professionnels qui l’utilisent chaque jour, et qui a souvent donné lieu à des théories du complot, même vaguement.

Signification et explication du classement Google

Pour en savoir plus sur quelques détails officiels, empruntons les paroles d’une voix autoritaire plus que toute autre, à savoir le discours du PDG de Mountain View, Sundar Pichai , lors de l’audition au Congrès des États-Unis fin 2018, en qui lui ont posé des questions sur son entreprise, sa vie privée et toute une série d’autres questions, dont la désormais très célèbre « pourquoi la recherche d’ idiot sur Google fait apparaître des images de Trump ».

Combien de facteurs de classement sont utilisés par Google pour le référencement ?

Pichai a expliqué que Google fournit actuellement des réponses de sorte que chaque fois qu’un utilisateur tape un mot-clé, le système répond en appelant une « copie explorée et stockée de milliards de pages Web dans notre index » ) ; en quelques instants, il prend le mot-clé, le relie aux pages indexées et crée un classement basé sur plus de 200 signaux qui déterminent le positionnement d’un site. Parmi ces indices (ou facteurs), le PDG a cité  » la pertinence, la fraîcheur, la popularité , la façon dont les autres l’utilisent ».

SEO Ranking Google, l’algorithme est une machine complexe qui évolue chaque jour

Sundar Pichai a également ajouté que, pour s’assurer que le processus fonctionne, Google « essaie à tout moment de classer et de trouver les meilleurs résultats pour cette requête », puis les évalue également par le biais d’évaluateurs de qualité externes, qui à leur tour agissent en suivant l’objectif des directives, sans les Googlers . ou toute autre personne intervenant dans un résultat de recherche particulier. Rien qu’en 2017, poursuit le PDG de Google, des réponses ont été fournies à plus de 3 000 milliards de recherches, et « chaque jour, 15 % des plages que Google voit, nous n’en avons jamais vu auparavant », c’est-à-dire qu’il s’agit de requêtes inédites .auquel l’algorithme essaie de répondre de la meilleure façon possible, également grâce à ses évolutions continues au niveau interprétatif, qui exploitent de plus en plus des systèmes avancés d’intelligence artificielle, de réseaux de neurones et d’apprentissage automatique appliqués précisément à la recherche.

Selon les statistiques les plus récentes ( Internet Live Stats , 2023), Google traite près de 100 000 recherches chaque seconde, et donc plus de 8 milliards et demi de recherches par jour et plus de 3,1 billions sur une base annuelle.

Les 200 facteurs de classement utilisés par Google : les neuf principaux domaines

Guide des 200 facteurs de classement sur Google pour un bon référencementBref, Pichai a eu recours à l’expression désormais étrange dans le domaine du search marketing – 200 facteurs de classement se répètent en continu, même sans connaissance réelle des faits sur le nombre de ces signaux – et a mentionné trois ou quatre signaux qui deviennent donc « officiels » , rejoignant l’autre qui a fait ses preuves et dont les voix publiques de Google ont parlé à plusieurs reprises.

Et pourtant, comme nous l’avons dit, la liste complète des facteurs de classement comprend de nombreux éléments et paramètres qui sont en fait plus controversés , qui dans certains cas ne pourraient être que des spéculations de SEO Nerds et d’autres encore sur lesquelles il n’y a pas de connaissance précise.

Cependant, nous avons décidé de les lister tous ci-dessous, regroupés en neuf catégories principales liées à des domaines d’intérêt et d’intervention spécifiques et indiqués par un nombre croissant qui, cependant, n’a aucun rapport avec le poids spécifique pour le classement.

  • Facteurs de domaine .
  • Facteurs au niveau de la page .
  • Facteurs au niveau du site .
  • Facteurs de backlink .
  • Interaction avec l’utilisateur ( Interaction avec l’utilisateur ).
  • Règles spéciales de l’algorithme Google .
  • Signaux de marque ( Signaux de marque )
  • Facteurs de spam Web on-site .
  • Facteurs de spam Web off-site .

Facteurs de classement Google de domaine

Commençons par la liste des facteurs de classement de domaine, qui semblent avoir une valeur relative sur le positionnement efficace du site et de ses pages.

  1. Ancienneté . Google utilise des informations sur l’âge du domaine (combien de temps il a été en ligne), mais cela ne semble pas être un facteur majeur dans le classement.
  2. Mot clé présent dans le domaine de premier niveau . Dans ce cas également, le poids de ce facteur a diminué, mais il peut influencer en tant que signal de pertinence pour un mot clé ou un sujet spécifique.
  3. Mot clé utilisé comme premier mot du domaine. La position du mot-clé dans le nom de domaine pourrait avoir des effets plus importants sur le positionnement, par rapport à des concurrents qui n’ont pas ce mot-clé dans le domaine ou qui l’utilisent à des positions différentes, mais en réalité son poids est minime voire totalement nul.
  4. Mot-clé dans le sous-domaine. Certains analystes SEO identifient également l’utilisation de mots-clés dans le sous-domaine comme un facteur de classement, mais ce qui a été écrit précédemment s’applique : effet minimal sinon nul.
  5. Métriques d’analyse de domaine. L’avocat de la recherche John Mueller l’avait dit entre les lignes : il utilise des métriques de domaine pour classer les sites , ce qui affecte initialement également le nouveau contenu et les nouvelles pages du site (surtout s’il a déjà rencontré l’approbation de Big G ).
  6. Facteurs de classement de domaineEMD, correspondance exacte des mots clés. C’est un autre facteur qui a progressivement perdu de sa force au fil du temps : l’exact match domain (la correspondance précise entre le nom de domaine et le mot-clé pour lequel il entendait concourir et voulait se positionner) ne devait pas représenter un éventuel élément d’avantage par rapport aux adversaires , bien que cette technique persiste encore.
  7. Informations sur qui enregistre le domaine. Google pourrait évaluer positivement la décision de laisser publiques les données de la personne qui enregistre le site ; au contraire, le refus de fournir de telles données pourrait être interprété comme un élément suspect.
  8. Pénalité de l’inscrit. La mémoire de l’algorithme s’étend également aux autres propriétés d’un inscrit : s’il a été pénalisé pour spam, d’autres sites sont susceptibles de faire également l’objet d’un examen plus méticuleux.
  9. Code pays dans le domaine. Gary Illyes l’a expliqué : le choix d’un domaine de premier niveau avec une extension indiquant le code pays spécifique du territoire géographique auquel il appartient (ou celui dans lequel l’activité est exercée) pourrait générer un effet positif, car il indique que « ce domaine est plus pertinent pour les personnes de ce pays particulier » et peut donc « recevoir un trafic plus ciblé » de Google (bien que ce choix puisse limiter la capacité du site à se classer à l’échelle mondiale).
  10. Durée de l’enregistrement. Un ancien brevet de Google (datant de 2005 !) citait la durée d’enregistrement du domaine comme un signal de crédibilité pour l’algorithme : plus la date d’expiration est éloignée, plus Google attribue à ce site une prédiction de légitimité et de sécurité (basée sur la concept que les sites de porte ou illégitimes apparaissent souvent et disparaissent en quelques mois).
  11. Historique du domaine. L’historique passé d’un site (par exemple, s’il a été enregistré par plusieurs personnes au fil du temps, s’il a connu divers drop ou s’il a subi une pénalité lors de ces étapes) affecte son positionnement, car il pourrait pousser Google à se réinitialiser complètement les liens pointant vers le domaine ou pénalisant le nouveau (dernier) propriétaire.

Facteurs de classement Google des pages

La liste des facteurs de positionnement sur Google qui sont liés aux caractéristiques des pages d’un site et à celles de leur contenu, qui s’inscrivent dans l’ activité globale d’optimisation SEO on-page , est beaucoup plus longue : on sait depuis un certain temps que la qualité reste le maître mot, l’objectif à atteindre pour augmenter les chances de mieux classer les objets, et depuis 2022 l’adjectif utile est également ajouté ; comme cette liste le précise, cependant, il existe également de nombreuses références techniques pertinentes qu’un webmaster, un consultant SEO, un rédacteur ou toute personne qui gère ce commerce en ligne ne peut ignorer. L’essentiel, cependant, reste la nécessité de comprendre et d’intercepter l’intention de recherche de l’utilisateur, en fournissant un contenu pouvant répondre pleinement et exhaustivement au besoin qui l’a amené à utiliser Google en premier lieu. A cela s’ajoute également le respect de l’ expérience utilisateur et la nécessité de servir les pages rapidement et efficacement , comme l’exige également le facteur (officiel !) de la Page Experience.

  1. FEAT. Le cadre EEAT de Google évalue l’expérience, l’expertise, l’autorité et la fiabilité du créateur de contenu (et de l’ensemble du site) : ce n’est peut-être pas un facteur de classement en soi, mais Google accorde certainement de plus en plus d’attention aux pages qui les démontrent. facteurs, qui entrent en quelque sorte dans le calcul et les évaluations algorithmiques.
  2. Mots-clés dans la balise de titre. Autre élément qui a perdu de son importance avec les dernières mises à jour de l’algorithme, la balise title reste tout de même un signal d’optimisation des pages, bien que « subtile », car elle permet à Googlebot et aux lecteurs d’avoir une idée préventive de ce qui leur arrive. page.
  3. Mot-clé au début de la balise de titre. L’utilisation du mot-clé comme premier terme de la balise de titre pourrait apporter des avantages au positionnement par rapport aux titres où la clé apparaît vers la fin.
  4. Mots clés dans la méta description. On sait que Google n’utilise pas directement la balise meta description comme facteur de positionnement SEO , mais en même temps l’influence que peuvent avoir les descriptions synthétiques sur le CTR, la valeur du taux de clics, qui à son tour pourrait être un signal de classement (ou, a minima, un indicateur de meilleure pertinence et pertinence du contenu par rapport à la requête saisie par l’utilisateur).
  5. Mot-clé dans le H1. Même s’ils coïncident souvent, il existe une différence entre la balise title et H1 : la première est un élément externe à la zone de navigation de la page (c’est-à-dire qu’il s’agit de l’information qui identifie chaque page Web et document HTML), la Le titre H1 est un « deuxième titre », un élément de mise en forme du texte de ce contenu spécifique. Comme mentionné précédemment, Google considère la balise H1 comme un signal secondaire de pertinence.
  6. Densité des mots-clés. Il a été l’un des facteurs les plus abusés par les référenceurs dans le passé, avec l’utilisation précitée du bourrage de mots-clés et la répétition massive du mot-clé dans chaque paragraphe de l’article : aujourd’hui la densité du mot-clé, c’est-à-dire le pourcentage de présence du mot-clé cible par rapport au nombre total de mots dans le texte, a perdu de sa valeur, mais reste un élément potentiel de concurrence pour le classement, au moins comme indication générale de la manière appropriée d’utiliser les mots-clés dans le contenu.
  7. Mise en avant des mots-clés. La proéminence du mot-clé est un élément potentiel lié au référencement : cela signifie que l’utilisation d’un mot-clé dans les zones sensibles de la page a une pertinence spécifique. En particulier, la page est considérée comme optimisée si ce mot-clé apparaît dans les 100 premiers mots utilisés, ou s’il est utilisé au début des titres, des balises d’en-tête et des méta descriptions.
  8. Mots-clés dans les balises d’en-tête. Insérer correctement le mot-clé dans les balises d’en-tête HTML telles que H2, H3, etc. peut être un signal (faible) de pertinence pour les moteurs de recherche, car Google utilise ces balises pour interpréter la structure de la page .
  9. Utilisation de mots-clés LSI dans le contenu. Le terme LSI fait référence à « l’indexation sémantique latente», une méthode mathématique technique qui permet d’identifier les relations existantes au sein d’un document. D’un point de vue SEO, les mots-clés LSI sont des mots-clés sémantiquement liés au mot-clé principal qui aident les moteurs de recherche à déterminer le contexte spécifique du sujet (même dans le cas d’un mot qui a plusieurs sens), et représentent également un facteur de qualité possible du contenu . Ce ne sont pas simplement des synonymes et des variations grammaticales du mot-clé, mais d’autres mots-clés qui ajoutent de la pertinence au sujet de la page. En réalité, Google a précisé à plusieurs reprises que les LSI n’aident pas les classements, d’autant plus avec l’évolution technologique des algorithmes, désormais capables de déduire plus précisément le contexte.
  10. Utilisation de mots-clés LSI dans les balises Titre et Description. Comme dans le cas précédent, l’utilisation de mots-clés connexes dans les balises méta de la page peut probablement représenter un signal de pertinence pour Google et aider à la distinction en cas de mots à sens multiples potentiels.
  11. Autorité de domaine. L’autorité et la confiance d’un domaine (l’un des paramètres inclus dans le Zoom Authority ) affectent le classement d’une page par rapport à une autre, les (autres) conditions étant égales, car ce facteur a un poids pour Google (qui utilise les métriques à la fois du site – et au niveau de la page pour évaluer l’autorité, et chaque page bénéficie de certaines propriétés générales du domaine.
  12. PageRank de la page. Il n’y a pas de corrélation directe, mais les pages qui ont un PageRank plus élevé et plus de liens se classent généralement mieux que celles qui n’ont pas de liens ou des liens de mauvaise qualité.
  13. Nombre de mots-clés placés. Si une page se classe pour plusieurs mots clés, Google interprète cela comme un signal interne de qualité.
  14. Longueur du contenu. Google n’accorde aucune valeur au nombre de mots, même s’il est généralement admis que l’algorithme favorise le contenu contenant beaucoup de mots plutôt que le contenu qui semble plus court et plus superficiel (c’était l’une de nos recommandations pour les outils d’écriture SEO), car le premier peut fournir plus d’informations et de réponses aux utilisateurs. Cependant, l’étude et l’analyse des textes des concurrents les mieux positionnés peuvent mettre en évidence une corrélation entre la longueur du contenu et la position dans la SERP, qui est cependant liée au niveau d’information nécessaire pour satisfaire l’intention de recherche. L’utilisation de plus de mots peut également augmenter la probabilité de trouver les termes corrects que Google s’attend à trouver pour votre sujet.
  15. Duplication de contenu. Tout simplement, la présence de contenu dupliqué au sein d’un même site est considérée comme un facteur qui affecte négativement le positionnement sur le moteur de recherche.
  16. Méta descriptions en double. Tout type de duplication de contenu peut générer une pénalité ou une mauvaise performance de la page et du site : même les méta descriptions en double doivent donc être évitées, en se concentrant sur la création de textes originaux et sans ambiguïté. Pour vérifier si le site présente cette erreur, vous pouvez utiliser la Google Search Console ou les outils d’analyse SEOZoom.
  17. Présence d’erreurs HTML. Porter peu d’attention au code et gérer un site avec de nombreuses erreurs HTML peut être un signe négatif pour Google, alors qu’à l’inverse une page bien codée et propre est un élément de fiabilité et de qualité.
  18. Taille des URL. Une longueur d’URL excessive peut nuire à la visibilité d’une page sur les moteurs de recherche, et certaines études rapportent que les URL courtes ont un avantage sur les URL plus longues.
  19. Chemin de l’URL et proximité du domicile. Les pages dont les URL sont plus proches de la page d’accueil ont tendance à mieux se classer que les pages profondément enfouies et difficiles d’accès dans l’architecture d’un site, il serait donc préférable de privilégier les chemins raccourcis . Cet aspect est souvent désigné par le nom de profondeur de clic, qui définit précisément la profondeur, le nombre de clics nécessaires pour passer de la page d’accueil à la landing page.
  20. Utilisation des balises. Les balises , qui sont un signal de pertinence spécifique de WordPress, ont également longtemps été considérées comme un élément utile pour améliorer le référencement, car elles relient les contenus les uns aux autres, mais en réalité elles n’ont aucun effet positif en ces termes.
  21. Mot clé dans l’URL. Il a un poids minimal, mais l’insertion du mot-clé dans la chaîne d’URL génère toujours un élément évalué par Google, également parce que l’URL est le premier signal que vous montrez à Google.
  22. Format d’URL. De même, la structure et la composition de l’URL peuvent représenter une indication du thème de référence de la page et donc être un élément positif pour le positionnement.
  23. Priorité des pages dans le plan du site. Une influence potentielle sur le classement peut également provenir de la hiérarchisation d’une page donnée via le fichier sitemap.xml.
  24. Catégories de pages. Les catégories sont les piliers de l’architecture d’un site et sont un signal de pertinence pour le classement des pages : une page thématique avec la catégorie peut surperformer une page classée dans une catégorie sans lien.
  25. Compréhensibilité du texte. Le moteur de recherche est également attentif à la compréhensibilité du contenu, en utilisant des métriques qui estiment le niveau de lecture des pages Web et qui doivent suggérer une écriture simple et claire, en privilégiant des constructions syntaxiques moins complexes.
  26. Utilisation d’un index – Table des matières. Une page dans laquelle se trouve un index des sujets traités (la table des matières ) peut aider Google à analyser et à mieux interpréter le contenu de la page, et est parfois également affichée dans les liens de site des SERP.
  27. Texte avec puces et listes. Google évalue également la lisibilité d’une page : utiliser des listes à puces ou numérotées, qui subdivisent le texte et mettent en évidence les sujets, pourraient en faciliter et améliorer l’utilisation par les lecteurs , rencontrant également l’agrément du moteur de recherche.
  28. Faites attention à la grammaire. Bien écrire n’est pas seulement un élément distinctif de la capacité d’un rédacteur SEO, mais aussi un potentiel signal de confiance que le site transmet à Google : publier des articles et des pages avec un contenu correct d’un point de vue grammatical , orthographique et syntaxique est une valeur ajoutée de qualité aussi pour le classement, même s’il existe des cas particuliers qui révèlent des tendances très différentes.
  29. Contenu utile. Si la qualité est un adjectif que nous ajoutons souvent au mot contenu lors de notre activité de référencement, l’utilité d’une page et des informations adressées au lecteur peut également être un facteur pris en considération par Google pour le classement . La sortie internationale du Helpful Content System , en 2022, a formalisé cet aspect et donc l’utilité est effectivement un facteur de classement au niveau de la page.
  30. Facteurs de classement Google des pagesOriginalité du contenu. Autre élément facile à comprendre : de manière générale, nous vous invitons à ne publier que des contenus originaux et sur lesquels vous détenez les droits ( syndication , en anglais). Lorsqu’un texte contient des portions copiées ou dupliquées d’une page déjà indexée sur les moteurs de recherche, il peut mal se positionner voire ne pas être indexé du tout à son tour. Google a un système spécial qui recherche l’originalité et, par exemple, fait ressortir des histoires originales avant d’autres contenus qui ne font que mentionner ces histoires.
  31. Pages avec des idées sur le sujet. La profondeur de la couverture du sujet ( profondeur de la couverture du sujet ) a une pertinence pour le classement de l’article : les pages qui couvrent et approfondissent chaque recoin d’un sujet, qui offrent des informations utiles et détaillées, sont plus susceptibles de se positionner que celles qui au lieu de cela, ils ne couvrent que partiellement le sujet.
  32. Profondeur du contenu. Si le contenu fournit une valeur unique, qui montre la profondeur du raisonnement, il peut être considéré comme une pierre angulaire, une pierre angulaire de qualité pour la page qui peut aider les classements à long terme. Aussi parce que Google a souvent révélé qu’il pénalisait les sites qui n’apportaient rien de nouveau ou d’utile aux lecteurs, notamment les sites affiliés minces .
  33. Qualité des avis produits. Une introduction assez récente, le Product Reviews System est un algorithme qui se concentre sur un type de requête et de contenu très particulier, les « avis sur les produits », et sert à garantir que les utilisateurs intéressés par les recherches à caractère commercial trouver parmi les résultats fournis par le moteur de recherche uniquement (ou principalement) du contenu avec des critiques de produits qui incluent des recherches approfondies et originales, plutôt que de maigres textes qui résument simplement une série de produits.
  34. Âge des pages. Une page ancienne mais constamment mise à jour avec des contributions actualisées peut mieux se positionner qu’une nouvelle.
  35. Contenu récent. Même la date de publication d’un contenu et les mises à jour ultérieures ( fraîcheur ) peuvent être des éléments influençant le positionnement, notamment pour les sujets sensibles au facteur temps.
  36. Portée des mises à jour. Une modification substantielle d’un contenu, l’ajout ou la suppression de rubriques entières, est un facteur de fraîcheur plus important que la correction d’une faute de frappe ou l’ajout de quelques mots : la portée (ampleur) des mises à jour a donc aussi un poids sur le classement.
  37. Fréquence des mises à jour. La fraîcheur fait également référence à la fréquence à laquelle la page a été mise à jour au fil du temps.
  38. Fréquence du mot dans le texte. Les experts SEO affirment que Google utilise un système sophistiqué de TF-IDF (une fonction qui calcule l’importance d’un terme par rapport à un document) pour mesurer combien de fois un certain mot apparaît sur une page : plus le taux de répétition est élevé, plus la page est susceptible d’être sur ce mot. SEOZoom dispose également d’un outil qui calcule cette valeur, même si notre conseil est d’utiliser les données comme une trace indicative pour la gestion des mots-clés, et non comme une référence absolue pour l’optimisation du contenu.
  39. Correspondance avec l’entité. Au sens du moteur de recherche, les entités (entités) sont une liste d’éléments associés au  Knowledge Graph de Google , qui forment les nœuds du graphe et qui décrivent des personnes, des lieux et des choses dans le monde réel, vous permettant de rendre votre recherche plus en profondeur de l’utilisateur. Lorsque le contenu d’une page correspond exactement à l’entité recherchée par l’utilisateur, la page peut bénéficier d’une amélioration du classement pour ce mot-clé.
  40. Paramètres de Google Colibri. Avec la mise à jour de l’algorithme appelé Hummingbird (devenu depuis 2013), Google a révolutionné sa façon d’évaluer les pages, allant au-delà des mots-clés présents dans un texte et se poussant à mieux comprendre le sujet d’une page web et à interpréter l’intention de recherche de plus en plus efficacement.
  41. Rel = canonique. Comme l’explique Google, l’utilisation correcte de la balise Rel = Canonical permet de consolider les URL dupliquées et d’éviter les pénalités, car elle indique au crawler quelle URL crawler en cas de page accessible depuis plusieurs URL ou de présence de plusieurs pages avec des liens similaires contenu ou doublons.
  42. Contenu multimédia. L’utilisation de médias tels que des images, des vidéos et d’autres éléments multimédias peut être un signal de la qualité du contenu, car ils offrent une valeur ajoutée pour l’utilisateur.
  43. Optimisation des images. Souvent injustement négligées dans le cadre des opérations de référencement, les images sont au contraire un élément fondamental de la page et envoient aux moteurs de recherche des signaux de pertinence à travers des champs tels que le nom du fichier, le texte alternatif, le titre, la description et la légende , et donc l’ optimisation des images pour le référencement c’est une activité cruciale et bien définie, qui peut apporter des bénéfices concrets.
  44. Contenu supplémentaire utile. Depuis le document avec les lignes directrices pour les évaluateurs, Google considère le contenu supplémentaire utile comme un indicateur de la qualité de la page et, par extension, du classement, car il contribue à rendre l’expérience utilisateur positive. Des exemples de contenu offrant des services supplémentaires aux utilisateurs incluent des convertisseurs de devises, des calculateurs d’intérêts de prêt ou des recettes interactives (avec des liens vers des recettes, des avis ou des informations nutritionnelles similaires).
  45. Optimisation mobile. Avoir un site et des pages correctement optimisés pour les appareils mobiles n’est pas seulement un plus potentiel en termes de classement, mais plutôt la norme minimale pour être compétitif aujourd’hui, à la lumière du dépassement consolidé du trafic Web mobile par rapport au bureau. Ainsi, avoir un site mobile-friendly et respecter tous les paramètres liés à la satisfaction de l’expérience utilisateur peut être utile pour les classements Google, alors qu’au contraire les sites qui ne font pas attention à ces aspects non seulement risquent une mauvaise visibilité, mais peuvent aussi être ignorés par utilisateurs.
  46. Vitesse de chargement HTML. La vitesse est également un facteur de classement , toujours en raison du poids croissant de la navigation mobile, et de manière générale, un faible temps de chargement des pages permet d’améliorer l’expérience utilisateur et les taux de conversion.
  47. Expérience de page Google. Depuis juin 2021, Google a officiellement lancé le Page Experience System , un algorithme qui évalue comme facteur de classement une série d’éléments techniques qui examinent les performances des pages du site par rapport à l’expérience offerte aux utilisateurs. Ce système complexe comprend le Core Web Vitals , la convivialité mobile, l’utilisation du protocole HTTPS, l’absence de publicités interstitielles intrusives.
  48. Vitesse de chargement dans Chrome. C’était une vieille spéculation des référenceurs, qui pensaient que, pour accélérer les temps de chargement des pages et mieux gérer l’expérience utilisateur , Google utilisait également les données fournies par le rapport d’expérience utilisateur Chrome, c’est-à-dire les données utilisateur de personnes réelles qui naviguent sur un site via le navigateur Chrome, pour mesurer et évaluer la vitesse de chargement d’une page. Aujourd’hui, nous savons qu’il existe des paramètres très spécifiques que Google examine et évalue pour vérifier les performances des pages et la manière dont elles satisfont les utilisateurs.
  49. Utilisation de l’AMP. Pendant des années, malgré les démentis de Google, la technologie AMP (Accelerated Mobile Pages) a été considérée comme un potentiel facteur de classement ou, du moins, un élément pouvant influencer indirectement le positionnement (via le CTR) et générer un avantage pour les campagnes, car elle accélère le chargement . des annonces et, en général, des pages. Aujourd’hui, ce système est complètement dépassé par les nouvelles technologies, qui sont beaucoup plus efficaces et performantes.
  50. Expérience utilisateur mobile. Comme déjà signalé à l’occasion du lancement du mobile first index , Google prend de plus en plus en considération l’expérience utilisateur garantie à ceux qui naviguent sur le site en mode mobile, qui doit être simple, rapide et stable même lorsque la couverture du réseau de données et ils ne sont pas idéales.
  51. Mise en page conviviale. La convivialité est également payante sur la mise en page, qui devrait rendre le contenu principal immédiatement visible .
  52. Masquez le contenu dans la version mobile. Selon Google, le choix de masquer certains contenus pour la navigation mobile peut ne pas être préjudiciable en termes de classement. Cependant, le contenu critique et principal doit toujours être visible.
  53. Contenu masqué dans l’onglet. Si vous choisissez de masquer une partie du contenu d’un onglet de page et de le rendre accessible uniquement lorsque l’utilisateur clique dessus, Google peut ne pas indexer ce contenu.
  54. Liens sortants. Pas seulement les liens entrants : utiliser efficacement les liens sortants (en particulier vers des sites faisant autorité et crédibles ou des sites d’actualités et d’informations approfondies) peut aider à envoyer des signaux de fiabilité et de confiance à Google, qui interprète ces éléments comme s’il s’agissait des sources citées dans une étude universitaire. papier.
  55. Sujet de lien sortant. Google utilise depuis longtemps l’algorithme Hilltop, un système qui évalue l’autorité d’un site ou d’une page web sur un sujet donné ; cette méthode est également utilisée pour évaluer le contenu des pages vers lesquelles pointent les liens sortants , et donc la pertinence de la référence est extrêmement importante également pour la contextualisation.
  56. Nombre de liens sortants. Le classement d’une page pourrait être endommagé par la présence d’ un trop grand nombre de liens de suivi sortants , qui affectent négativement le PageRank. Exagérer n’est jamais bon pour Google : avoir trop de liens sortants d’une page est interprété comme un signe de spam ou de contenu de mauvaise qualité, car des références externes excessives et disproportionnées peuvent aggraver l’utilisabilité, reléguer le sujet au second plan et détourner l’attention des lecteurs de la sujet.
  57. Utilisation de sources et de ressources externes. Autre cas controversé : dans les directives de qualité, Google souligne que l’utilisation de citations , de références et de ressources externes comme sources (surtout si elles sont certifiées et faisant autorité) peut être considérée comme un élément positif pour la fiabilité du site, mais cela n’a pas été confirmé l’impact possible sur le classement.
  58. Nombre de liens internes vers la page. L’utilisation d’une bonne structure de liens internes est un signe important d’organisation du site et représente également un moyen de signaler à Google la pertinence de la page vers laquelle pointent de nombreux liens internes (proportionnellement, plus elle reçoit de liens, plus la page prend valeur).
  59. Qualité du lien interne. Non seulement la quantité, Google prend également en considération la qualité des liens internes , c’est-à-dire les pages d’où partent les liens. Par conséquent, un lien reçu d’une page faisant autorité du domaine a un effet plus important qu’un lien envoyé à partir d’une page avec un rang inférieur ou nul.
  60. Texte d’ancrage des liens internes. Le texte d’ancrage utilisé dans les liens internes peut être un signal de classement, bien que sa portée soit moindre que le texte d’ancrage introduisant un lien depuis un site externe.
  61. Présence de liens brisés. La présence d’un nombre excessif de liens brisés sur une page peut être interprétée comme le signe d’une négligence ou d’un site abandonné, affectant négativement le classement.
  62. Liens affiliés. En principe, la présence de liens d’affiliation n’a pas d’effets négatifs sur le classement, mais s’ils sont trop nombreux, l’algorithme de Google pourrait déclasser le site, le considérant comme un « affilié sans valeur ajoutée ».
  63. Rôle des rédacteurs. Référence est faite à un ancien brevet de Google , datant de 2000 mais toujours valide (et avec une date d’expiration juste prolongée jusqu’en 2021), qui stipule, entre autres, que les opinions de soutien des éditeurs humains pourraient influencer le positionnement sur Google Search, mais l’utilisation réelle de ce système n’a jamais été confirmée.
  64. Domaine parqué. Un domaine parqué est généralement un domaine de second niveau mis en ligne mais non utilisé , sur la page d’accueil duquel n’apparaît qu’un message de courtoisie (de type « en construction ») ou des messages publicitaires (surtout si un domaine acheté périmé qui rapportait beaucoup de backlinks et génère toujours du trafic organique). Depuis 2011, Google pénalise la visibilité de ces domaines parqués dans les SERP, réduisant progressivement leur autorité.

Facteurs de classement Google du site

La structure du site , le soin de chaque aspect, la gestion optimale des ressources et des contenus sont d’autres facteurs de classement importants pour Google, qui évalue spécifiquement une série de paramètres axés sur des éléments toujours liés au côté on-page plus orienté vers le technique aspects.

  1. Convivialité du site. Il semble y avoir une relation directement proportionnelle entre la convivialité d’un site et ses performances dans la recherche Google. Plus précisément, un site difficile à utiliser et à naviguer peut être pénalisé en termes de classement (également parce que ses valeurs de permanence sur le site, de pages vues et de taux de rebond sont moins bonnes) que celles d’un site avec un simple et intuitif pour les visiteurs.
  2. Architecture du site. Une structure bien organisée, propre et bien codée, avec une architecture de contenu thématique, facilite l’exploration et l’indexation par Google et peut apporter des avantages au classement.
  3. Présence de plans de site. La préparation d’un sitemap HTML , qui aide et simplifie l’indexation des pages par Googlebot, pourrait améliorer le positionnement.
  4. Navigation fil d’Ariane. L’utilisation d’un menu de navigation Breadcrumb peut améliorer la convivialité du site, permettant aux utilisateurs et aux moteurs de recherche de mieux naviguer entre les pages et les catégories et de comprendre facilement leur architecture et leurs chemins. Il a été précisé que la recherche Google utilise le fil d’Ariane dans le corps d’une page Web pour cataloguer les informations reçues de la page.
  5. Mises à jour du site. Il semble que Google n’aime pas la nature statique, et donc les mises à jour et modifications du site , pas seulement en termes de contenu, pourraient être un signe de fraîcheur.
  6. Facteurs de classement Google du siteClassement de confiance. En 2005, Google a acquis le brevet TrustRank , une technique d’analyse permettant d’établir la fiabilité d’une page ou son niveau de spam en analysant divers éléments , notamment la véracité des informations publiées sur le site.
  7. Page de contacts. L’insertion d’une page avec les références et les contacts de la propriété ou des gestionnaires est considérée comme l’un des principaux facteurs de classement du référencement local , du référencement localisé, car elle permet aux utilisateurs de connaître des informations telles que le nom, l’adresse et le numéro de téléphone d’une entité à proximité. Il peut être utile de vérifier que les informations de contact indiquées sur la page correspondent aux informations whois.
  8. Proximité géographique avec l’utilisateur. Surtout pour les SERP à intention « locale », Google peut prendre en compte la position géographique du chercheur pour déterminer quels résultats lui montrer comme pertinents, en préférant les pages de marques ou d’entreprises les plus proches de lui. Bien qu’il ne soit pas possible de modifier l’emplacement d’une entreprise, les marques peuvent vérifier que toutes les informations sur leur site et d’autres profils (y compris les mentions d’emplacement) sont à jour et exactes.
  9. Disponibilité du site. Le temps de fonctionnement (traduction littérale de la disponibilité) d’un site indique l’intervalle pendant lequel il a été allumé en permanence et a correctement fonctionné : un site sain, avec une disponibilité élevée , a de meilleures opportunités de classement, car Google l’identifie comme des épisodes de facteurs potentiellement critiques tels comme des pannes fréquentes et des problèmes de serveur, pouvant même entraîner une désindexation , une désindexation des pages.
  10. Emplacement du serveur. La localisation géographique du serveur peut influencer le classement, notamment pour les recherches géo-localisées et le référencement local.
  11. Certificat HTTPS et SSL. Ce n’est plus un secret pour personne que l’utilisation d’un certificat SSL pour le protocole de sécurité HTTPS est utilisée comme un léger facteur de classement par Google.
  12. Pages de confidentialité et de conditions d’utilisation. Selon Google, insérer correctement la page avec les termes et conditions du service et la page de confidentialité vous permet d’augmenter la fiabilité du site envers les utilisateurs et les moteurs de recherche.
  13. Vidéos youtube. Les vidéos mises en ligne sur YouTube (sans surprise, propriété de Google) semblent avoir une voie préférentielle dans les SERPs du moteur de recherche par rapport aux vidéos mises en ligne sur d’autres plateformes : YouTube est donc le site de prédilection pour mettre en ligne une vidéo, et un bon compte YouTube peut également être un signal SEO important.
  14. Utilisation de Google Analytics et de Google Search Console. Il s’agit certes d’un faux mythe, mais pour mémoire, mentionnons que certaines théories SEO invitent à évaluer l’utilisation des outils Google Analytics et Google Search Console comme un potentiel facteur de classement, à la fois parce qu’ils améliorent l’indexation des pages du site et parce que ils offrent à Google des informations de plus en plus détaillées (telles que les taux de rebond ou le trafic organique qui provient des backlinks, etc.).
  15. Critiques d’utilisateurs. Les avis et commentaires des utilisateurs , notamment s’ils sont publiés sur des sites réputés fiables tels que Yelp.com, peuvent représenter un élément potentiel évalué par l’algorithme de Google pour le classement.

Malgré les mises à jour, les évolutions et les changements d’algorithmes, les liens restent la ressource fondamentale à travers laquelle Google peut faire son travail, scrutant le Web à la recherche des meilleurs résultats à offrir aux utilisateurs qui exécutent une requête. L’importance des liens entrants (appelés aussi backlinks ou liens entrants) pour le positionnement sur les moteurs de recherche a été réitérée à plusieurs reprises ces derniers temps , et le link building reste également un élément fondamental pour une stratégie SEO réussie : grâce aux liens reçus de sites de confiance, Googlebot comprend qu’un site est approuvé par d’autres propriétaires/gestionnaires de sites, et cela aura un effet stimulant surpages liées et sur l’ensemble du site, qui peuvent mieux performer dans les classements SERP.

  1. Autorité de domaine. Un lien reçu d’un site que Google aime et a un haut niveau d’ autorité (comme celui indiqué par notre autorité Zoom) représente un signal d’estime important pour les robots des moteurs de recherche, ce qui peut avoir un impact plus important sur le classement.
  2. Autorité de la page. De même, l’autorité de la page unique (comme celle indiquée par exemple par notre Page Zoom Authority) qui envoie un lien est également un facteur de classement important : Google lui-même le dit dans ses guidelines , expliquant qu’un lien est comme un vote de d’une page à l’autre et « les votes des pages déjà jugées importantes ont plus de poids et contribuent à rendre les autres pages importantes « .
  3. Nombre de domaines liés. La quantité compte : même si d’une manière différente (et avec moins d’impact) que par le passé, l’algorithme de Google continue d’évaluer le nombre de domaines référents qui envoient des backlinks vers un site comme facteur de classement .
  4. Nombre de pages liées. La somme totale des pages d’autres personnes qui envoient des backlinks vers un site est également pertinente pour Google.
  5. Âge du domaine de liaison. Un lien reçu d’un site actif depuis de nombreuses années peut être considéré comme faisant plus autorité qu’un lien fourni par un domaine plus récent.
  6. Âge du lien. Un backlink qui fonctionne et qui est actif depuis un certain temps peut être plus pertinent qu’un nouveau lien qui vient d’être publié, tous les autres facteurs étant égaux.
  7. Profil de backlink naturel. Un site qui bénéficie d’un profil de backlink naturel (c’est-à-dire où aucune intervention manipulatrice et forcée n’est perçue) pourrait avoir des résultats meilleurs et plus durables dans le temps qu’un concurrent qui a utilisé sans vergogne des stratégies de chapeau noir pour obtenir des liens.
  8. Texte d’ancrage des backlinks. Comme nous le savons, le texte d’ancrage est utilisé par Google pour définir le sujet principal de la page liée, et donc la présence de mots-clés dans le texte d’ancrage peut être utile pour le site lié. Selon certains référenceurs, cet élément a perdu une partie de sa pertinence par rapport au passé, mais il reste néanmoins un facteur de classement important, alors que l’abus et la sur-optimisation du texte d’ancrage (surtout s’il est manipulateur dans les secteurs YMYL) il peut être un signe de spam et entraîner des sanctions.
  9. Titre du lien. L’attribut de titre du lien (c’est-à-dire le message qui apparaît au passage de la souris) pourrait représenter un léger facteur de classement pour Google.
  10. Mots clés dans le titre. Google semble récompenser les liens provenant de pages qui contiennent le mot-clé du site lié dans le titre.
  11. Position du lien dans le contenu. La partie écrite du contenu (le corps du texte ou, plus simplement, le texte) est également importante pour la gestion des backlinks : on pense que la position dans laquelle le lien est inséré dans le contenu peut influer sur le classement. En particulier, si le lien est positionné plus haut dans le texte, il sera lu en premier, et donc les crawlers de Google peuvent mieux l’évaluer qu’un lien positionné plus bas dans le texte.
  12. Position du lien sur la page. Un lien présent dans le contenu central de la page a plus de poids que ceux insérés dans la barre latérale, dans le pied de page ou à d’autres positions.
  13. Lien vers la page d’accueil. Les liens sortants pointant vers une page d’accueil jouent un rôle particulier dans l’évaluation d’un site.
  14. Liens non suivis. A partir de 2020, l’attribut nofollow est passé d’une directive à un conseil : cela signifie que Google peut décider de transmettre l’autorité à la page qui reçoit un tel lien, même si la règle s’applique généralement que Google ne suit pas les backlinks définis dans ce chemin. Même dans ce deuxième cas, cependant, l’obtention de liens de cette nature pourrait être un élément important pour construire un profil de backlink naturel (ou perçu comme tel par les moteurs de recherche).
  15. Liens contextuels. Les liens correctement contextualisés dans le contenu d’une page sont considérés comme plus pertinents et utiles que ceux qui sont hors contexte.
  16. Lien dans la balise Alt des images. L’insertion d’une balise Alt dans les images avec un lien vers une ressource peut être un élément positif pour le classement, car elle est interprétée comme un texte d’ancrage par les moteurs de recherche.
  17. Liens publicitaires. Les liens dans les publicités doivent être définis sur nofollow, mais il est fort probable que l’algorithme de Google soit capable d’identifier et de filtrer les liens publicitaires dofollowed .
  18. Liens sponsorisés et termes similaires. Un lien contenu dans un article marqué comme  » lien sponsorisé  » ou avec des termes similaires, qui dénote un accord de quelque nature que ce soit derrière le lien, doit être indiqué avec l’attribut sponsorisé et pourrait perdre de la valeur en termes de force de classement.
  19. Liens de sites avec différentes adresses IP de classe C. La quantité et la variété des domaines avec des adresses IP de classe C uniques envoyant des backlinks vers un site peuvent être un signe de valeur : premièrement, cela montre que ces backlinks proviennent de sources et de sites extérieurs à votre entreprise, et deuxièmement, que les informations fournies sont considérées comme utiles, diversifiés et accessibles. À l’inverse, la réception de nombreux liens provenant de domaines avec des adresses IP de classe C identiques peut être interprétée comme la présence d’un PBN et apporter.
  20. Redirections 301 excessives. La redirection d’un lien 301 est une pratique légale et valable, mais vous ne devez pas exagérer avec cette technique, car elle pourrait créer des effets négatifs tels que des chaînes de redirections qui rendent difficile l’exploration par les bots .
  21. Utilisation de Schema.org. Les pages qui prennent en charge les microformats et utilisent le balisage Schema.org peuvent être mieux classées que celles qui ne le font pas. Il s’agit de spéculation et il n’est pas clair si elle est basée sur une analyse de corrélation directe ou si c’est parce que les pages avec des microformats ont un taux SERP CTR plus élevé.
  22. TrustRank du site liant. La fiabilité du site de liaison pour Google détermine la quantité de TrustRank qui est transmise avec le backlink.
  23. Quantité de liens externes sur la page. Une page qui envoie trop de liens sortants transmet moins de PageRank qu’une page qui utilise à bon escient les liens sortants : c’est parce que le PageRank offert par une page n’est pas infini et se divise en chaque lien.
  24. Compte de mots. Un lien envoyé depuis une page de contenu de mille mots a généralement plus de valeur qu’un lien placé dans un article de 25 mots. Une autre spéculation SEO basée sur la valeur hypothétique du nombre de mots.
  25. Qualité du contenu. Google prend également en considération la qualité du contenu dans lequel le lien sortant est inséré : les liens présents dans des articles mal écrits ou filés valent moins que ceux présents dans un contenu de qualité.
  26. Liens sur tout le site. Les liens à l’échelle du site, c’est-à-dire ceux qui sont contenus dans des parties répliquées du site telles que le pied de page ou la barre latérale , ne devraient pas affecter négativement le classement, mais sont toujours « compressés » et évalués comme un lien unique par Google.
  27. Vitesse de liaison positive. Les sites qui ont une bonne vitesse de liaison ( vitesse de liaison , comprise comme la capacité à gagner plus de liens entrants que de liens perdus) peuvent mieux se classer dans les SERP car ce taux signale qu’un site augmente sa popularité.
  28. Mauvaise vitesse de liaison. A l’opposé, un site qui a une vitesse de liaison négative (et donc un solde négatif entre les liens obtenus et perdus) risque d’avoir une influence négative sur le classement car c’est un indice de baisse de popularité.
  29. Variété de sources. Obtenir des backlinks d’une seule source (par exemple des commentaires sur des forums ou des blogs) et en quantités non naturelles peut être un signe de spam pour Google, alors qu’au contraire recevoir des liens provenant de sites et de sources différents et variés, par nature, type et secteur d’activité, indique un profil de backlink naturel.
  30. Facteurs de classement Google des backlinksLiens de sites réels . Google pourrait avoir des systèmes pour distinguer les backlinks fournis par des sites réels et indépendants de ceux provenant de faux blogs ou de réseaux de blogs (également appelés splogs ) : compte tenu de la facilité de création de ces derniers, l’algorithme du moteur de recherche pourrait utiliser des systèmes tels que l’évaluation de la marque et l’interaction de l’utilisateur signaux pour classer les sites, donnant plus de valeur aux backlinks provenant de sites réels.
  31. Liens provenant de sites avec des extensions localisées. Recevoir des backlinks de sites qui ont des extensions TLD localisées et spécifiques (par exemple, .it, .co, .uk) pourrait aider un site à améliorer son classement dans ce pays particulier.
  32. Liens de sites institutionnels. Jusqu’à il y a quelques années, recevoir des backlinks de sites institutionnels (avec l’extension des domaines .edu ou .gov, par exemple), était considéré comme un facteur fondamental de classement : aujourd’hui ce n’est plus le cas, mais un lien entrant provenant de sites faisant autorité et reconnus. domaines en tant que tels également par Google est toujours un signe de fiabilité pour le site.
  33. Liens des sites d’autorité. Recevoir un lien provenant de ce que Google considère comme des « sites d’autorité » (sites faisant autorité et reconnus) transmet un jus plus important que ceux obtenus à partir de sites petits et peu connus.
  34. Liens entre les sources Wikipédia. Bien qu’il s’agisse de liens nofollow , beaucoup pensent qu’un backlink de Wikipédia représente une injection de confiance et d’autorité pour un site aux yeux des moteurs de recherche.
  35. Liens concurrents. Obtenir des liens d’un site qui concurrence sur le même SERP et les mêmes mots-clés est un signe précieux de fiabilité pour le positionnement sur Google.
  36. Lien du domaine pertinent. Recevoir un lien retour d’un site thématiquement pertinent (traitant du même sujet ou de sujets connexes) et appartenant à la même niche est un facteur de classement important et a plus de valeur qu’un lien reçu d’un site totalement indépendant.
  37. Liens des pages pertinentes. De même, recevoir un lien d’une page connexe et d’actualité avec le sujet transmet également plus de valeur.
  38. Liens provenant de sites « attendus ». Selon certaines spéculations SEO, Google pourrait ne pas faire entièrement confiance à un site qui ne reçoit pas de liens de sites attendus et bien connus de son secteur.
  39. Postes d’invités. L’utilisation de la stratégie guest post (hébergement d’un contenu rédigé par un expert sur un site, lien vers son site) n’a probablement plus le poids qu’elle avait auparavant en termes de positionnement, mais elle représente tout de même un élément pouvant aider au référencement d’un site . En général, il n’est pas recommandé de l’utiliser comme seule méthode de création de liens, également parce qu’elle transmet peu de jus de lien et, si elle est effectuée à grande échelle, peut causer des problèmes ou des pénalités pour le site.
  40. Liens nuisibles. Les liens peuvent également avoir des effets néfastes sur le positionnement, surtout s’ils proviennent de Bad Neighborhoods (littéralement, de mauvais voisins), c’est-à-dire de sites de mauvaise qualité, de mauvaise qualité, peu recommandables, déjà pénalisés et facilement identifiables comme spammeurs . Si un site reçoit un backlink de sources aussi dangereuses, il peut être intéressant de procéder à un désaveu de lien sur Google.
  41. Liens des meilleures ressources. Toujours selon l’algorithme Hilltop, le fait d’avoir des liens provenant de pages considérées comme les meilleures ressources sur un sujet donné génère un « traitement spécial » pour le site.
  42. Termes proches . Les cooccurrences ( c’est-à-dire des mots sémantiquement proches de ceux contenus dans le texte d’ancrage et apparaissant dans les phrases liées au lien) peuvent aider Google à contextualiser le lien et également aider les utilisateurs à comprendre le but de chaque lien , donc à décider avec une plus grande connaissance de le suivre ou non.
  43. Liens réciproques. Comme déjà mentionné, Google décourage les échanges de liens réciproques entre deux sites qui visent ouvertement à augmenter le PageRank de manière non naturelle.
  44. Liens du contenu généré par l’utilisateur. L’algorithme de Google est capable de faire la distinction entre UGC ( contenu généré par l’utilisateur ) et le contenu publié par les véritables propriétaires du site. L’exemple le plus courant est celui des sites hébergés sur WordPress qui ont des sections de commentaires ouvertes pour les publications ou les forums. Pour désavouer un lien inséré par un utilisateur sur lequel il n’y a aucun contrôle, il faut utiliser l’attribut rel=UGC, qui signale à Google la nature précise du lien, qui pourrait donc perdre de la valeur en termes de force pour le classement.
  45. Lien en 301. Corriger la destination d’un lien entrant et utiliser correctement une redirection 301 vers une nouvelle ressource peut ne pas donner des résultats différents pour le classement par rapport aux liens directs.
  46. Liens de forums. Google évalue mal les liens de forum car ils ont été fréquemment utilisés pour des stratégies de spam ou de chapeau noir dans le passé.

Les facteurs de classement Google liés à l’interaction de l’utilisateur

A présent, nous savons tous que Google utilise des systèmes d’Intelligence Artificielle pour gérer le classement et la classification des pages dans les SERP : c’est l’une des fonctions de RankBrain , la technologie d’apprentissage automatique capable de trier « des milliards de pages connues et d’identifier les plus pertinentes chacune ». requête de recherche. Mais l’algorithme prend également en considération d’autres paramètres basés sur l’expérience utilisateur et l’interaction de l’utilisateur avec le site et avec la page unique, essayant de comprendre et d’évaluer le comportement des gens lorsqu’ils atterrissent sur les résultats des requêtes sur Google.

  1. RankBrain. Comme mentionné, RankBrain est un facteur de classement qui aide Google à mieux comprendre et interpréter la requête en fonction des interactions de l’utilisateur, afin de classer les pages les plus pertinentes pour la demande exprimée par l’utilisateur. En outre, il sert également à prédire sur quoi un utilisateur pourrait cliquer lors de l’exécution d’une requête non modifiée.
  2. CTR organique par mot-clé. Le CTR (taux de clics) est l’un des facteurs Google les plus discutés, selon certains référenceurs, les pages qui collectent le plus de clics pourraient donner un coup de pouce au positionnement SERP d’un mot-clé spécifique.
  3. CTR organique du site. Malgré les déclarations de Google, on pense que le CTR organique d’un site pour l’ensemble des mots-clés pour lesquels il se positionne peut être l’un des principaux signaux d’interaction des utilisateurs.Les facteurs de classement Google liés à l'interaction de l'utilisateur
  4. Taux de rebond. Selon certaines théories SEO, l’algorithme de Google récompenserait les pages avec un faible taux de rebond , c’est-à-dire une faible fréquence de rebond (le pourcentage de fois qu’un utilisateur visite uniquement la page du site où il a atterri sans poursuivre la navigation et la permanence). En effet, les pages avec un taux de rebond élevé peuvent ne pas être le meilleur résultat pour ce mot-clé ou la réponse souhaitée à l’intention de recherche de l’utilisateur.
  5. pogo collant. Le pogo sticking est un type spécifique de rebond , particulièrement négatif : c’est le comportement d’un internaute qui atterrit sur un site positionné dans la SERP mais quitte la page et revient sur la page de résultats de Google pour consulter les autres résultats de la SERP car il est pas satisfait. Il est considéré comme un signal de trafic de mauvaise qualité et pourrait entraîner des pertes de classement pour ces mots clés.
  6. Temps de séjour . Le dwell time pourrait être un signal SEO à évaluer : l’expression désigne la durée de pause d’un utilisateur sur une page web vers laquelle il a été dirigé par une SERP Google avant de revenir sur la même page de résultats. Un temps de permanence élevé (grâce aux contenus proposés et aussi aux liens internes approfondis ) signifie que l’utilisateur considère la page de qualité et d’intérêt, et donc l’algorithme regardera également positivement le site.
  7. Trafic direct. Il pourrait y avoir une corrélation entre le trafic direct acquis par les sites et la notation des moteurs de recherche, en particulier si les visiteurs utilisaient Google Chrome ; il a en effet été précisé que l’algorithme de Google utilise les données du navigateur pour déterminer le nombre et la fréquence des personnes qui visitent le site.
  8. Trafic de retour. Un site est considéré comme valide et de qualité s’il est capable d’attirer du trafic de retour , ou s’il incite les utilisateurs à revenir sur ses pages lors d’autres sessions.
  9. Favoris sur Chrome. L’algorithme de Google collecte diverses données via le navigateur Chrome et pourrait également utiliser l’inclusion de pages dans des signets personnels (favoris) comme facteur de classement .
  10. Nombre de commentaires. Afin d’évaluer l’interaction des utilisateurs avec le site et la qualité des contenus, le nombre de commentaires peut être un facteur important de positionnement.

Règles d’algorithme spéciales de Google et fonctionnalités SERP

Au fil des ans, les référenceurs ont également analysé certains comportements spéciaux et spécifiques de l’algorithme du moteur de recherche, produisant la liste suivante de facteurs de classement Google liés précisément aux règles valables pour le système Mountain View et non strictement liés à des éléments de SEO technique ou de production de contenu. Dans de nombreux cas, l’effet est l’activation d’une fonctionnalité SERP spécifique , qui offre une position de visibilité significative pour la page (ce qui ne se traduit cependant que parfois par des clics et une augmentation du trafic).

  1. La fraîcheur de la requête. La requête mériterait de la fraîcheur, selon les analystes : pour certaines recherches, Google pourrait favoriser les nouvelles pages et contenus par rapport aux plus anciens. C’est ce qu’évalue l’algorithme dit QDF , qui analyse précisément le niveau de fraîcheur des résultats dans la SERP.
  2. Extraits en vedette. Comme nous le savons, les extraits en vedette ou les résultats zéro sont des contenus mis en évidence par Google avant le SERP classique et sélectionnés sur la base d’une combinaison d’éléments comprenant la longueur , la mise en forme, l’autorité de la page et l’utilisation du protocole HTTPS.
  3. SERP mixtes . Pour des requêtes ambiguës ou pour des intentions multiples, Google peut préférer une solution intermédiaire, proposant une SERP mixte dans laquelle il y a des pages qui répondent aux différents sens des termes.
  4. Recherche sécurisée. Les sites qui publient des articles avec des  » gros mots  » (blasphèmes ou mots déconseillés, pour ainsi dire) ou avec du contenu pour adultes n’apparaissent pas dans les résultats des utilisateurs qui activent le mode Safe Search .
  5. Revendications de droit d’auteur. Google pénalise les pages qui ont fait l’objet de réclamations pour atteinte aux droits d’auteur sur le contenu ou les ressources.
  6. Diversité de domaine. Pour certaines SERP, Google peut favoriser la présence de différents domaines au nom de la pertinence au lieu de n’afficher que les résultats de domaines uniques. Ce comportement est géré par le  » système de diversité  » qui tente de faire en sorte qu’aucun site ne tende à avoir une présence dominante dans les premiers résultats.
  7. Ciblage géographique. Google peut donner la priorité aux sites qui ont une adresse IP locale et une extension de domaine spécifique pour la zone géographique de référence.
  8. Images . Certaines requêtes entraînent l’affichage d’une vignette Google Images .
  9. Règles d'algorithme spéciales de Google et fonctionnalités SERPRecherches locales. Les résultats localisés et les listes de profils d’entreprise ont souvent la priorité dans les SERP que le moteur de recherche évalue comme « locales » (ou pour lesquelles il considère que la réponse la plus appropriée est une indication localisée).
  10. Recherches transactionnelles. Les SERP de Google se transforment en fonction de l’intention de l’utilisateur : en particulier, les transactionnelles offrent la possibilité d’acheter directement le produit, ou présentent des fonctionnalités qui conduisent à l’achat de services, comme dans le cas des vols aériens ou des réservations d’hôtel.
  11. Boîtes à provisions. Les recherches transactionnelles génèrent également un carrousel Google Shopping avec la présentation d’une série de produits pouvant être achetés sur divers eCommerce.
  12. Boîte à nouvelles principale. Certaines requêtes (principalement d’information ) déclenchent l’apparition d’un encadré avec l’ Actualité Principale qui accorde un traitement préférentiel aux actualités récentes sur des sujets d’actualité ou « sujets tendance ».
  13. Recherches de navigation. Les requêtes liées à un domaine ou à une marque spécifique génèrent plusieurs résultats à partir de ce même site.
  14. Puissance de la marque. Le nom et la puissance de la marque sont privilégiés dans le classement sur Google, notamment pour les requêtes spécifiques et de navigation .
  15. Œufs de Pâques. Google cache des dizaines d’ œufs de Pâques , de surprenants petits cadeaux qui se déclenchent lorsque vous exécutez une certaine requête.
  16. Historique de navigation . C’est un facteur qui influence l’affichage personnel des SERP lorsque nous naviguons depuis le même appareil ou connectés à un compte Google : les sites que nous visitons plus souvent pourraient être mieux positionnés dans les nouvelles requêtes car l’algorithme pourrait mémoriser les préférences des utilisateurs.
  17. Historique des recherches. Google suit les requêtes effectuées par l’utilisateur en tant que mesure de personnalisation pour optimiser les résultats ultérieurs, offrant ainsi des réponses plus ciblées à ce que l’intention de recherche de la personne est censée être.
  18. Contenu YMYL. Google a des règles plus strictes et des normes de qualité plus élevées pour évaluer le contenu YMYL (votre argent, votre vie) , c’est-à-dire pour les sites et les pages qui traitent de sujets qui peuvent avoir un impact sur la vie des gens, comme la finance ou la santé .
  19. Algorithme de prêt sur salaire. Il s’agit d’un algorithme qui devrait nettoyer la SERP des requêtes à risque de spam, comme celles liées aux petits prêts (prêts sur salaire, en américain), aux contenus pornographiques, etc.

Les facteurs de classement Google liés aux signaux de marque

Une autre section de facteurs à prendre en considération est celle qui fait spécifiquement référence aux marques , entendues à la fois comme une « entité » et comme une marque spécifique : du texte d’ancrage des liens à la présence sur les réseaux sociaux, Google semble porter une attention particulière à ces signaux.

  1. Texte toujours marqué . L’un des principaux facteurs de cette catégorie est l’utilisation d’un texte d’ancrage de marque , qui reste un signal aussi simple que fort (attention toutefois à abuser de cette information et à sur-optimiser les campagnes de création de liens).
  2. Recherches de marque. Les utilisateurs recherchent fréquemment des marques : ainsi, si les internautes recherchent une marque spécifique sur Google, le moteur de recherche identifie le site comme une « vraie marque » et peut mieux l’évaluer.
  3. Recherches de marques + mots-clés. En plus du cas précédent, les mots clés de marque – recherches dans lesquelles le nom d’une marque et d’autres mots clés apparaissent – augmentent également la visibilité du site pour les algorithmes de Google (même pour les requêtes dans lesquelles ces mots clés sont alors sans rapport avec la marque).
  4. La page Facebook. Si une marque a une page Facebook qui reçoit beaucoup de likes et d’interactions, cela pourrait également avoir des avantages pour le positionnement.
  5. Profil Twitter. De même, les profils Twitter de marque avec de nombreux abonnés signalent également à Google qu’ils ont affaire à une marque populaire.
  6. Page LinkedIn officielle. Une page officielle de l’entreprise sur LinkedIn contribue à rendre la marque plus visible.
  7. Comptes de médias sociaux vérifiés. Google est capable de déterminer si un compte de réseau social est réel ou faux : le nombre et le type d’interactions avec les abonnés, par exemple, sont un élément important pour l’évaluation et le poids de ce signal.
  8. Mentions de la marque dans Top News. Lorsque vous interrogez de très grandes marques, Google répond toujours avec une boîte Top News qui informe sur la dernière activité ; dans certains cas, en particulier, Google prend les flux directement du site officiel (qui apparaît comme le premier résultat).
  9. Mentions de marque sans liens. Les marques reçoivent souvent des mentions même sans backlinks et, selon les référenceurs, Google interprète toujours ces références comme un facteur de classement.
  10. Emplacement physique de l’entreprise. Les vraies entreprises ont des bureaux : partant de cet axiome, il est considéré comme possible que Google recherche des informations sur le siège social et la localisation de l’activité pour évaluer si un site est ou non une grande marque.

Les facteurs de classement Google liés aux facteurs de spam sur site

Les facteurs de classement Google liés aux facteurs de spam sur siteLes deux derniers points de ce très long guide sont consacrés à un élément très délicat, à savoir la pénalisation que peut subir un site en raison d’un comportement jugé incorrect par l’algorithme de Google : essayons donc d’abord de voir quelles sont les éventuelles pénalisations sur site . Le site et les facteurs connexes sont considérés comme du spam , relevant souvent de ce que l’on appelle classiquement les tactiques de référencement black-hat . Et, par conséquent, nous apprenons ce qui agace les araignées et les robots qui traversent notre site, afin d’éviter d’irriter Google et de recevoir des pénalités pour les pages, les mots clés ou l’ensemble du site.

  1. Pénalités Panda. Depuis l’époque de la mise à jour Panda , Google punit les sites au contenu de mauvaise qualité (en particulier les anciennes fermes de contenu ) en les classant moins bien, surtout après avoir reçu la sanction .
  2. Sur-optimisation du site. Cela peut sembler étrange et paradoxal, mais une optimisation excessive sur le site peut également entraîner des pénalités. La liste ne comprend pas le bourrage de mots clés , le bourrage de balises d’en-tête , l’utilisation disproportionnée de l’emphase du texte (c’est-à-dire gras, italique et autres indices de ce type).
  3. Spam dans la méta description. L’utilisation de stratégies de spam et de bourrage de mots clés dans la méta description (par exemple, jouer la main avec l’utilisation de mots clés pour essayer de casser l’algorithme) peut entraîner une pénalité.
  4. Concentrez-vous sur les profits, pas sur les lecteurs. À partir de 2017 et à la suite de l’ algorithme Fred , Google a pénalisé les sites dont le contenu était de mauvaise qualité et qui visaient à maximiser leurs profits grâce au classement au lieu de se concentrer sur l’aide aux lecteurs en répondant à leur intention de recherche.
  5. Sites affiliés sans valeur ajoutée. Google accorde une attention particulière à l’analyse des sites qui participent à des programmes d’affiliation, au point de pénaliser dans les SERP « les sites qui présentent majoritairement du contenu issu des réseaux d’affiliation » et qui n’ont pas « suffisamment de contenu à valeur ajoutée qui les distingue des autres sites sur la toile ».
  6. Utilisation excessive du nofollow à la sortie. Ne pas suivre tous les liens sortants du site pourrait signaler à Google une tentative de « manipulation » de l’algorithme et de création artificielle de PageRank .
  7. Adresse IP reconnue comme spam. Si l’adresse IP d’un serveur est marquée comme spam, elle pourrait infecter et pénaliser tous les sites attribués à ce serveur.
  8. Lien vers les mauvais quartiers . Les liens vers les « mauvais voisins » peuvent également être nuisibles lorsqu’ils sont sortants : un lien externe vers certains sites, en particulier s’il est actif dans les secteurs YMYL et considéré comme spam par Google, risque de compromettre la visibilité de la recherche .
  9. Liens d’affiliation cachés. Tenter de masquer des liens d’affiliation , par exemple en utilisant des techniques de cloaking, est une cause possible de sanctions.
  10. Pages de porte. Google n’apprécie pas les tentatives de tromper l’algorithme ou les utilisateurs, et les pages de porte sont également signalées comme un facteur de pénalité potentiel, car elles redirigent les utilisateurs vers des pages ou des sites autres que ceux promis dans les résultats de recherche .
  11. Cloaking (ou redirections sournoises). Les redirections sournoises ( les redirections sournoises , elles se définissent) sont une stratégie à éviter absolument : si Google s’en aperçoit, cela déclenche non pas une simple sanction, mais même une désindexation du site. Il faut donc éviter la technique du cloaking, la « pratique consistant à présenter aux utilisateurs humains des contenus ou des URL autres que ceux présentés aux moteurs de recherche », fortement déconseillée par les guidelines de Google.
  12. Publicités intrusives et popups. Comme nous l’avons dit à plusieurs reprises, Google accorde une grande importance à l’expérience de navigation de l’utilisateur : des éléments tels que les popups et les publicités intrusives peuvent compliquer et rendre l’utilisation des pages négative, et sont donc évalués comme un signe de mauvaise qualité du site.
  13. Publicité interstitielle. Google peut également pénaliser les publicités interstitielles qui recouvrent entièrement la vue du site qui les héberge et l’affichage de l’utilisateur, bloquant l’accès direct au contenu souhaité. Cet élément a été intégré dans l’expérience de page plus large, comme déjà indiqué.
  14. Publicité au-dessus de la ligne de flottaison . Un autre signe de spam pourrait être la présence d’un trop grand nombre de publicités over-the-fold , qui alourdissent l’expérience de l’utilisateur sur le site et compromettent l’évaluation de « l’algorithme de mise en page » de Google .
  15. Contenu auto-généré. L’algorithme de Google est capable d’identifier et de pénaliser les contenus auto-générés ou écrits dans des formats apparemment corrects mais, en pratique, dénués de sens (le terme « Charabia ») : lorsqu’il tombe sur des sites et des pages comme qui déclenchent une désindexation.

Facteurs de spam et pénalités hors site

Facteurs de spam et pénalités hors siteAprès avoir conclu la partie évoquant les erreurs pouvant être commises dans la gestion de son propre site, place maintenant à l’analyse des facteurs pénalisants et des indices de spam que Google identifie dans les stratégies off-site . Dans ce cas également, ce sont des comportements qui obligent la main à tenter de contourner les directives du moteur de recherche et à intercepter un meilleur positionnement, et qui risquent au contraire d’entraîner une pénalité sous la forme d’une action manuelle ou, dans le pire des cas, d’ un expulsion de l’index Google.

  1. Site piraté. Subir une attaque de pirate pourrait entraîner une désindexation de votre site : c’est un cas rare (c’est arrivé en décembre 2018 à Search Engine Land ) et cela arrive lorsque le piratage est très lourd et altère toutes les pages, à commencer par l’accueil, insertion de contenu entièrement spam.
  2. Pics de liens non naturels. Google peut identifier si le taux de réception des backlinks est naturel ou non : lorsqu’il détecte des afflux anormaux, il dévalorise le site.
  3. Afflux non naturel de backlinks. Par conséquent, plus précisément, un afflux soudain et non naturel de backlinks vers un site déclenche dans Google l’alarme qu’il s’agit de faux liens .
  4. Pénalités de pingouin. Dernièrement, les pénalités de Google Penguin semblent cibler des pages individuelles et filtrer les mauvais liens plutôt que d’affecter l’ensemble du site ; dans tous les cas, ceux qui subissent cette pénalité perdent de la visibilité dans les recherches.
  5. Profil de backlink de mauvaise qualité. Google pourrait interpréter la présence d’un profil de backlink de mauvaise qualité , avec des liens provenant principalement de sources utilisées pour les techniques de référencement black hat , comme une tentative de manipulation du classement .
  6. Backlinks de sites hors sujet. Un pourcentage élevé de backlinks provenant de sites hors sujet et non thématiquement liés pourrait générer une pénalité manuelle.
  7. Messages d’avertissement sur les liens non naturels. Google envoie des rapports depuis la Search Console lorsqu’il rencontre des liens non naturels , qui anticipent généralement (mais pas toujours) une baisse du classement.
  8. Liens provenant d’annuaires de mauvaise qualité. Dans l’aide de la Search Console , Google répertorie les backlinks de faible qualité provenant de sites d’annuaires ou de signets comme des liens non naturels.
  9. Liens dans les répertoires d’articles et les communiqués de presse. Google identifie également parmi les schémas de liens (et donc pénalise) les liens contenus dans les sites d’annuaires et les communiqués de presse diffusés sur d’autres sites, surtout si les textes d’ancrage sont optimisés.
  10. Liens dans les widgets. Les backlinks incorporés dans les widgets distribués sur divers sites sont également dangereux et déconseillés, surtout s’ils contiennent de nombreux mots-clés, sont masqués ou de mauvaise qualité.
  11. Backlinks avec la même classe IP C. Recevoir une quantité non naturelle de backlinks provenant de sites partageant la même adresse IP de serveur pourrait convaincre Google que vous disposez d’un conteneur de liens PBN.
  12. Textes d’ancrage dangereux. Il existe des textes d’ancrage qui présentent un risque élevé de spam ou de piratage (en particulier les mots-clés liés à la drogue), et qui peuvent dans tous les cas affecter le classement d’un site.
  13. Actions manuelles. Lorsqu’une action manuelle est associée au site, une partie ou la totalité du site n’apparaîtra pas dans les résultats de recherche Google : la liste de ces actions comprend une douzaine d’actions, telles que le spam généré par l’utilisateur , le cloaking, les images compromises , les commandes de redirection non autorisé sur les appareils mobiles, etc.
  14. Vendre des liens. Si Google pince un site qui vend des liens, cela pourrait pénaliser sa visibilité dans les recherches.
  15. Effet bac à sable. Selon certains analystes SEO, Google mettrait dans un bac à sable (le bac à sable avec lequel les enfants s’amusent au parc) les domaines les plus récents qui se disputent des mots-clés plus compétitifs, notamment ceux qui obtiennent rapidement des backlinks . Une sorte de limitation du Pagerank des pages et vérification de la validité des sites et backlinks par Google, pour éviter les actions manipulatrices des SERPs.
  16. Google Danse. Parfois les SERPs dansent aussi du fait de la volonté spécifique de Google : le nom Google Dance fait référence à un phénomène précis, à savoir les sauts soudains et éphémères des pages de résultats dont les critères sont mixés par Google pour vérifier la présence éventuelle de domaines qui utilisez des stratégies de chapeau noir et testez l’autorité réelle.
  17. Désavouer le lien. Comme nous le savons, Google a conçu l’outil Disavow Link Tool pour vous permettre de supprimer manuellement les liens provenant de sources inconnues et menaçantes, ce qui pourrait générer un référencement négatif.
  18. Demande de révision. Pour récupérer d’une pénalité, vous pouvez soumettre une demande de révision à Google : si elle est acceptée, le site peut récupérer la visibilité précédemment perdue.

Les principaux facteurs de classement pour Google, la base des systèmes algorithmiques actifs

En formalisant quels systèmes de classement sont réellement actifs (fin 2022), Google a également résumé quels sont les principaux (parmi les innombrables) facteurs que ces algorithmes prennent en considération, bien que de poids et d’importance différents également en fonction du type de recherche . Par exemple, la date de publication du contenu joue un rôle plus important dans la réponse aux requêtes sur l’actualité que les requêtes sur les définitions du dictionnaire.

Nous savons donc qu’il existe cinq grandes catégories de facteurs principaux qui déterminent les résultats d’une requête :

  • Signification . C’est l’intention de la recherche, que Google tente d’intercepter à travers des modèles linguistiques qui comprennent comment les quelques mots saisis dans le champ de recherche correspondent au contenu le plus utile disponible.
  • Pertinence . Les systèmes analysent ensuite le contenu pour évaluer s’il contient des informations pertinentes pour la recherche (par exemple, s’il inclut les mêmes mots-clés que la requête dans la page, les en-têtes ou le corps du texte), en utilisant des données d’interaction agrégées et anonymisées pour vérifier que la page contient d’autres contenus pertinents au-delà des mots-clés .
  • Qualité . Les systèmes de Google priorisent ensuite le contenu qui semble le plus utile , en identifiant les métriques qui aident à identifier le contenu qui met en évidence l’expérience, l’expertise, l’autorité et la fiabilité (les métriques EEAT).
  • Convivialité . Dans l’analyse de l’utilisabilité, les contenus jugés les plus accessibles par les utilisateurs pourraient également avoir les meilleures performances, avec des évaluations sur des aspects tels que la facilité de visualisation à partir d’appareils mobiles ou la vitesse de chargement.
  • Contexte . Des informations telles que l’emplacement, l’historique des recherches précédentes et les paramètres de recherche aident Google à s’assurer que les résultats présentés à un utilisateur correspondent à ce qui est le plus utile et pertinent pour lui à ce moment précis .

L’analyse des signaux, y compris les mythes et spéculations officiels, confirmés, faux

Les principaux facteurs de classement pour Google, la base des systèmes algorithmiques actifsCes cinq catégories englobent donc l’ essentiel de tout ce que nous avons écrit jusqu’à présent et dégagent quelque peu le champ des diverses spéculations et rumeurs, qui ne manquent pas dans la communauté internationale et ne cessent jamais.
Histoire de mieux cibler les points, on peut se référer au travail de Brad Smith , qui a analysé et condensé « tous les facteurs de classement Google connus, confirmés, supposés et seulement mythiques ».

  • Facteurs confirmés et officiels

Ce sont des composants que Google a admis utiliser à des fins de classement , bien qu’avec des poids et des spécificités différents.

  1. Contenu (qualité et utilité)
  2. Vitals Web de base
  3. Liens retour
  4. EEAT
  5. HTTPS
  6. Convivialité mobile
  7. Vitesse des pages
  8. RankBrain
  9. Proximité physique avec l’utilisateur effectuant la recherche
  10. Pertinence, distance et notoriété (déterminent la popularité et la proximité géographique d’une entreprise ainsi que sa pertinence par rapport à la recherche spécifique)
  11. Texte d’ancrage (pour mieux comprendre le contenu attendu sur la page de destination)
  12. Proéminence des mots-clés
  13. Balise de titre
  14. URL
  15. Historique du domaine
  • Facteurs de classement non confirmés mais suspectés

Ces signaux n’ont jamais été confirmés par Google , mais les experts soupçonnent qu’ils peuvent avoir un impact sur le référencement et les classements.

  1. texte alternatif
  2. Chapelure
  3. Profondeur de clic ou profondeur de clic
  4. Citations locales
  5. Co-citations et co-occurrences
  6. Langue (pour les sites opérant sur les marchés internationaux)
  7. Liens internes
  8. Schème
  9. Votre historique de recherche
  • Facteurs de classement évoqués, mais peu probables

Voici des signaux sur lesquels on spécule depuis longtemps et qui font donc parler d’eux : même s’ils n’ont pas été ouvertement démentis par Google jusqu’à présent, il y a de bonnes raisons de croire que leur utilisation est pour le moins improbable .

  1. 301 redirections
  2. Canonique
  3. Liens sortants
  • Facteurs de classement réfutés et non officiels .

Si les précédents étaient des signaux « dans les limbes », nous avons ici affaire à des éléments officiellement déclarés inutiles à des fins de classement Google : ce sont donc des facteurs dont il ne faut pas s’inquiéter outre mesure , du moins du point de vue de la visibilité sur le moteur de recherche .

  1. Taux de rebond
  2. Présence de pages 404 et soft 404 (elles n’affectent pas le classement des autres URL, mais peuvent toujours fournir une mauvaise expérience utilisateur)
  3. Google Display Ads (ils n’endommagent pas le positionnement, mais ils peuvent réduire la vitesse de chargement du site et donc influencer négativement l’UX)
  4. AMPÈRES
  5. Better Business Bureau (un vieux <em>mythe</em> soutenait que les avis du Better Business Bureau – BBB pouvaient non seulement avoir un impact sur les décisions d’achat des consommateurs, mais aussi sur les classements SEO)
  6. Taux de clics – CTR
  7. Code to Text ratio (rapport entre le volume du code par rapport à la quantité de texte sur la page)
  8. Méta descriptions
  9. Actions manuelles (elles sont une pénalité, pas un signal de classement)
  10. Longueur du contenu
  11. Âge du domaine
  12. Nom de domaine (mot clé correspondant)
  13. Priorité au premier lien
  14. Contenu à jour
  15. Types de liens (liés aux extensions telles que .edu, .gov, etc.)
  16. Densité des mots clés
  • Facteurs de classement incertains .

Le dernier groupe de signaux comprend un certain nombre d’éléments « en attente », qui ont des preuves à l’appui de leur utilisation réelle à des fins de classement, mais pas encore de confirmation ou de démenti officiels .

  1. Paternité ou rôle d’auteur de contenu ( la signature d’un auteur spécifique peut affecter la façon dont Google classe la page, même à la lumière de l’EEAT)
  2. Listes HTML (les puces ou les listes numérotées peuvent ou non affecter les classements, mais aident souvent à gagner en visibilité car elles apparaissent dans les extraits en vedette)
  3. MUM ( MUM Multitask Unified Model a été mis en œuvre en 2021 pour aider les algorithmes à mieux comprendre le langage, afin que Google puisse répondre plus efficacement aux requêtes de recherche complexes)
  4. Mise en forme du texte (l’utilisation d’éléments HTML, tels que gras ou italique , pour mettre en forme le texte peut aider les lecteurs et les outils d’exploration de Google à trouver rapidement des éléments de contenu importants)

Facteurs de classement sur Yandex et les fuites de code source

À première vue, lire que Google utilise 200 facteurs de classement ou plus pour évaluer les pages peut sembler une valeur « exagérée », mais en réalité les éléments pris en considération par les moteurs de recherche pour créer leurs classements sont encore plus nombreux .

Nous avons concrètement découvert cela fin janvier 2023, lorsque le russe Yandex (quatrième moteur de recherche au monde en nombre d’utilisateurs), a subi une fuite qui a conduit à la publication sur les réseaux sociaux d’une (grande) partie de ses codes sources internes , y compris les éventuels signaux utilisés à des fins de classement.

Comme l’ont révélé les experts qui se sont lancés dans l’étude de cette immense quantité de données, il existe plus de 1900 facteurs de classement (1922 pour être précis), même si 999 d’entre eux sont étiquetés comme TG_DEPRECATED, 242 comme TG_UNUSED, 149 comme TG_UNIMPLEMENTED et 115 comme TG_REMOVED – en pratique, il y en a environ 417 actifs , mais beaucoup plus que les 200 environ que nous supposons pour Google.

Les différences et les points communs entre Yandex et Google

Facteurs de classement sur Yandex et les fuites de code sourceIl est assez évident de dire que Yandex n’est pas Google – selon une analyse grossière, les deux SERP seraient similaires à 70% en termes de résultats listés sur la première page pour les mêmes requêtes, sans tenir compte des fonctionnalités supplémentaires – mais le fonctionnement de base de la recherche de moteurs est comparable .

Il s’ensuit que l’étude des facteurs de classement révélés par Yandex est une opération qui peut encore fournir des informations intéressantes à ceux qui font du référencement sur Google, sachant que l’information n’est pas nécessairement directement applicable même au moteur de recherche le plus célèbre et le plus utilisé à le temps.monde.

Comme le révèlent certains articles , les signaux de positionnement les plus importants pour Yandex sont regroupés en quatre domaines :

  • Liens : Yandex utilise un algorithme similaire au PageRank de Google qui évalue la qualité des liens en tenant compte d’éléments tels que les textes et l’âge.
  • Signaux utilisateurs : alors que Google a toujours nié utiliser ces critères (trop volatils, manipulables et peu fiables), le code source Yandex montre clairement que les signaux utilisateurs sont un facteur de classement et donc des valeurs telles que le CTR, le temps de permanence sur le site, la le taux de rebond et le nombre de visiteurs qui reviennent sur les SERP ont un impact sur le positionnement.
  • Pertinence : Yandex utilise principalement BM25 et d’autres éléments, par exemple si le mot-clé est contenu dans l’URL.
  • Confiance et qualité : Yandex applique également des exigences de qualité plus élevées pour les sujets sensibles tels que la santé et le contenu financier – par exemple, il existe 7 facteurs de classement différents pour les seuls sujets médicaux.

De plus, Yandex classe généralement le contenu publié sur Wikipedia.org mieux que les autres, prédit un effet négatif sur le classement des erreurs de serveur (codes d’état 400/500) et évalue positivement le cryptage HTTPS et la vitesse du site .

Probablement, nous le répétons, ces règles leakées sont obsolètes et presque certainement différentes de celles en usage sur Google, mais dans tous les cas il peut être intéressant de savoir ou d’avoir une idée générale du fonctionnement d’un moteur de recherche , même sans s’imposer ensuite de lui appliquer à la lettre toutes les indications pour espérer obtenir une amélioration de la visibilité organique !

Plan du site