La stratégie du SEO sera donc impulsé par des outils qui vont interpréter ce que les individus recherchent dans Google. Dans cette optique, il serait logique de partir de ce que les internautes recherchent spécifiquement sur votre site. Non ?
Qu’est-ce que le searchdexing ?
Le searchdexing est une stratégie SEO visant à indexer les pages du moteur interne de votre site, afin de les rendre accessible aux robots et aux utilisateurs.
Lors d’une recherche sur un moteur interne, alors l’intitulé de la requête est répercuté derrière :
- Un répertoire (siterandom.com/search/requete)
- Ou une query string (http://www.siterandom.com?search=requete)
Un searchexing vise à indexer ces recherches, pour les rendre accessible directement depuis Google.
Conférence au sujet du searchdexing par Rémi Nestasio (ou cherche-dexing) lors du SEO Camp 2022 de Paris.
Searchdexing, boîte de Pandore des consultants SEO ?
Le searchdexing, stratégie souvent décriée par la communauté SEO
Le searchdexing (ou « indexation des pages de search ») est une stratégie souvent décriée au sein de la communauté pour différentes raisons :
- Certains sites ne désindexent pas par défaut le searchdex, c’est le cas par exemple du site wayfair.com comme le rappelle Oncrawl, ce qui est une erreur difficilement réversible car elle génèrera X volume de pages indexées dans les moteurs de recherche. Envisagez par défaut l’utilisation d’une entête x-robot tag sur ce répertoire et/ou de les bloquer avec le fichier robots.txt (commande disallow) et/ou la meta robots noindex.
- Un searchdex automatisé non maîtrisé génère des pages avec mauvaises intentions de recherches. Par exemple des requêtes non transactionnelles pour un site e-commerce. Ou des pages corporate (accéder à mon compte, etc.).
- La création d’une stratégie de searchdex nécessite un moteur interne efficace pour proposer des résultats pertinents à l’utilisateur, et donc avoir un esprit critique sur l’utilisation de ces API moteurs (Algolia, Kibana, etc.), qui utilisent des principes tels que le n-gram, la tolérance typographique (les erreurs de frappe ou abus de langage), les suggestions de requêtes, did you mean, etc.
- Les craintes de duplication interne ou de « duplication d’intention ». Si par exemple, sur votre site de voyage, une page de votre arbre concerne les voyages en Guadeloupe, alors évitez d’ouvrir une page de search qui aura cette même thématique.
Car Google indexera les 2, mais aucune ne performera. Soyez donc méthodique !
Les pages de search ont un potentiel d’adaptation phénoménal.
- Trust sur keyword spécifique (longue traîne)
- Il s’agit de pages orphelines, isolées, qui ne lèsent pas l’arbre natif
Gestion de l’indexabilité et du maillage facile
- Index / Follow
- Maillage depuis les pages natives
Pages isolées, et orphelines si non mallées
- Maillage transverse / parents / etc.
- Manuel / automatique / outils
Temps de gestion et automatisation
- Vous pouvez très aisément automatiser la chaîne de création
- Ces pages longue traîne ne nécessitent pas de gros volumes de contenu
Une page de searchex, en outre, ne doit pas répondre par facilité aux lacunes de l’arbre natif principal, qui demande généralement plus de travail et d’animation commerciale. Le searchdex est aisément scalable sous forme de prove of concept : ouvrez 50 pages, maillez-les, laissez-les vivre, puis analysez les résultats !
Comment créer un searchdex ?
Sourcer les mots clés à fort potentiel
La première étape pour créer un searchdex, est de récupérer les résultats qui sont tapées dans votre moteur interne. Je vous conseille de retirer les résultats dont le taux de rebond / taux de sortie est supérieur à 85%. Retirer aussi les mots clés pour lesquels vous n’avez pas de produits / services.
- Si vous utilisez un site WordPress, alors l’interface widget permet de récupérer les résultats du moteur interne
- Nativement Prestashop permet de récolter les résultats du moteur interne (« Statistiques », « Recherches de la boutique »)
- Les outils Analytics Google Analytics, At Internet, Yandex Metrica permet entre autres de récupérer les visites effectuées depuis les pages du moteur interne
Qualifier les mots clés sourcés
Retirer les mots clés qui correspondent à une page pré existante sur le site (duplication interne).
Les mots clés de votre moteur interne ne vont pas forcément correspondre à des recherche Google. Je vous conseille de valider le potentiel de ces mots clés grâce à un outil de ranking.
Une fonctionnalité de check des mots clés en mode bulk existe des mots clés dans Semrush (100 par 100). Ce qui permet déjà de quadriller plusieurs milliers de pages.
Pour dépasser cette limite, alors je peux vous fournir un script Python, pour requêter l’API Semrush, pensez néanmoins à upgrader votre compte pour cela.
Gardez uniquement les requêtes qui possèdent un volume de recherche supérieur à 50-300 (selon les typologiques de sites).
Ouvrir à l’indexation ces pages
Plusieurs méthodologies existent en fonction de la mécanique du moteur interne.
Certains sites choisissent de garder une mécanique d’ouverture globale (meta robots et pas de blocage robots.txt) tout en faisant varier l’URL, ou la query string.
Par exemple :
http://www.siterandom.com?search=requete Page ouverte
http://www.siterandom.com#search=requete Page fermée : # URL = illisible
Il est aussi possible (plus facile) d’utiliser un répertoire d’ouverture différent du répertoire de fermeture
Par exemple :
http://www.siterandom.com/search/requete Répertoire ouvert (Allow: robots.txt)
http://www.siterandom.com/keyword/requete Répertoire fermé (Disallow : robots.txt)
D’autres méthodes visent à n’utiliser qu’un seul format d’URL mais à n’utiliser que la balise meta robots pour ouvrir et fermer les pages (moins sécurisé)
Par exemple :
http://www.siterandom.com?search=a-requete Page ouverte (index follow)
http://www.siterandom.com?search=b-requete Page fermée (no index no follow)
Pour faciliter la découverte et l’indexation de ces pages :
- Créer un sitemap.xml enrichi automatiquement
- Ajouter une catégorie un sitemap.html pour réduire la profondeur depuis la HP si moins de 2000 pages (ne pas utiliser si vous travaillez un site en silo thématiques)
- Vous pouvez utiliser une balise self canonical si vous craignez la création de doublons d’intentions sur le site (même si ce n’est clairement pas recommandable, c’est une rustine de sécurisation).
- Ajout d’un breadcrumb clusterisé sur la catégorie suggérée de chaque page de /search/ afin de créer un maillage ascendant relié au silo de pages natives.
Gestion du contenu sur un searchdex
Si vous allez indexer un volume de page restreint, alors vous pouvez le rédiger (2-3 phrases suffisent). Je vous conseille de tester l’indexation et la performance de pages indexées avec et sans contenu. Sur des pages de listes produits ou de listes d’articles, on rermarque très vite que le contenu rédigé sur la page de searchdex influence très peu le positionnement. 80% de la performance de la page se fera sur la pertinence / qualité des éléments de la liste obtenu par votre moteur interne. Si le contenu est roi, alors il ne l’est pas partout.
Le contenu sur des pages de searchdex, aide néanmoins grandement à faciliter la compréhension des moteurs de recherche vis-à-vis de son contenu. Notamment sur les mots clés possédant un aspect transverse à plusieurs univers de produits / catégories.
Ce qui ne serait pas le cas de mots clés plus qualifiés, par exemple « basket running ».
Maillage de ces pages sur le site
En dessous de 200 pages, vous pouvez mailler ces pages manuellement depuis les pages catégories de l’arbre natif. Au travers d’un bloc sitewide latéraux, ou autres.
Exemple 1 : Maillage bloc latéral, qui succède aux facettes chez Cdiscount
- Maillage intext avec crawl
- Maillage avec méthodes NLP
Analyse des résultats
- Délai d’indexation
- Pages actives / search (via les logs)
- Trafic X conversion
- Taux de rebond et taux de sortie
Conclusion
Le searchdexing est un type de stratégie qui peut être facilement mise en place mais très largement sous-estimé par les sites de petite / moyenne taille.
Etant facilement scalable, je conseillerai de sortir une cinquantaine de pages pour tester le potetiel ROIsable de ce genre de fonctionnalités.
Par la suite il est très aisé de généraliser leur automatisation (ouverture et fermeture) avec un script Python et 2-3 API.
Si vous avez d’aide sur les next steps de ce type de stratégies, contactez moi.
A bon entendeur !
Submit your review | |
+1
+1
0 commentaires