REFONTE DE SITE : COMMENT AUGMENTER LE BUDGET DE CRAWL SUR LES PAGES STRATÉGIQUES ? - CAS CLIENT - ONCRAWL
←
→
Transcription du contenu de la page
Si votre navigateur ne rend pas la page correctement, lisez s'il vous plaît le contenu de la page ci-dessous
Refonte de site : comment augmenter le budget de crawl sur les pages stratégiques ? CAS CLIENT Manageo Secteur : Data Date : Avril 2018 1
SOMMAIRE 03 À propos de Manageo 05 Comprendre le comportement de Google avant refonte 06 Réaliser un crawl complet de l’environnement du site 07 Surveiller ses logs pour augmenter son budget de crawl 09 Améliorer le crawl des pages prioritaires 13 À propos d’OnCrawl 2
À PROPOS DE MANAGEO CHIFFRES CLÉS Créé en 1999 et filiale du groupe Altares, Manageo est le leader français de l’activation de données au service 10 ans de la performance des entreprises. Pionnier de la DATACTIVATION la société s’est fixé pour mission de transformer des milliards de DATA en 1M visites SEO par mois opportunités business en s’appuyant sur sa plateforme manageo.fr. Cette solution de marketing prédictif, dotée d’un algorithme de recommandation et de scoring de 25M URLs contacts, analyse en temps réel les interactions pour favoriser les rencontres positives entre entreprises. 72 salariés Depuis sa création il y a plus de 10 ans, le site manageo. fr propose des informations juridiques et financières sur les 11 millions d’entreprises françaises. Des données mises au service de ses utilisateurs pour la gestion de leur risque client et la fiabilisation de leurs relations commerciales. Avec plus d’un million de visites par mois son modèle économique sur cette offre repose sur la vente de micro-abonnements pour la consultation des scores de solvabilité, des ratios financiers, des DUNS Number ou encore la vente d’enquêtes commerciales. 3
À PROPOS DE PHILIPPE LAINE «J’ai alors été confronté à l’analyse de logs, notamment pour Logic-immo, mais « à la main » avec une base De formation scientifique, Philippe Laine a axé sa carrière de données MySQL, des scripts et un tableau Excel sur le conseil aux entreprises désirant développer leur pour réaliser des graphiques !» image et leur chiffre d’affaires. Il est autodidacte en webmarketing comme beaucoup de seniors dans le Il a rejoint l’équipe marketing de Manageo en septembre domaine du SEO. 2015 en tant qu’expert SEO, avec pour mission d’auditer les sites de l’entreprise, proposer et mettre en œuvre Il a commencé à travailler dans le domaine de la pub des plans d’action SEO. avant même la fin de ses études. Il a ensuite rapidement créé une entreprise dans le domaine de la communication L’objectif ? Augmenter le trafic (qualifié) bien entendu ! événementielle. Ensuite, par passion, il s’est lancé totalement dans le web en tant que responsable de la communication en ligne de Games Workshop France durant 6 ans. A suivi une expérience de responsable de projets web et visibilité pour une agence multimédia durant 5 ans. Des rencontres comme celles avec Guillaume Eouzan l’ont encouragé à s’investir dans le SEO. C’est alors qu’a démarré son expérience 100% SEO, au sein d’AD Référencement / Darwin Agency ou il était en charge de clients grands comptes comme Adecco. 4
COMPRENDRE LE COMPORTEMENT DE GOOGLE AVANT REFONTE Plus spécifiquement, Philippe a besoin de bien L’essentiel du trafic de manageo.fr provient du comprendre comment Google voit son site afin référencement naturel. Et ce trafic dépend en grande d’orienter son énergie vers les bonnes optimisations partie de requêtes de longue traîne contenant la raison SEO. Avec des millions de pages indexées, le moindre sociale d’une entreprise, le nom d’un dirigeant, un changement de linking interne ou d’indexation peut secteur d’activité ou encore une zone géographique. avoir de larges répercussions. La nécessité est donc de performer sur des millions d’expressions clé en même temps. Enfin, une refonte d’ampleur a été réalisée et ils souhaitaient mettre toutes les chances de leur côté Le site est face à une dizaine de concurrents, ce qui pour qu’elle se passe sans perte de visibilité impose des efforts constants. La société a ainsi parfois l’impression de se battre face aux Pages Jaunes et societe.com réunis ! 5
RÉALISER UN CRAWL COMPLET DE “OnCrawl a alors su faire preuve d’écoute et de L’ENVIRONNEMENT DU SITE souplesse pour me permettre de tester sa solution et d’en démontrer les avantages en interne, sans Il est impossible de travailler à l’aveugle en SEO, c’est avoir à m’engager pour un an sur des gros volumes. pourquoi Philippe se voyait mal lancer un Screaming Et puis François Goube m’avait offert un mug siglé Frog sur un site avec près de 20 millions de pages ! lors du Shake Your E-commerce de Marseille où j’ai Quant-aux quelques données concernant l’indexation fait sa connaissance ; alors il fallait bien lui renvoyer qu’il arrivait à récupérer dans la Search Console, elles l’ascenseur…” étaient vraiment difficiles à interpréter. Désormais, ils réalisent régulièrement un crawl complet Il a eu beau croiser toutes les data à sa disposition, de la structure du site, surtout après une mise à jour jongler avec des sitemaps spécifiques pour surveiller technique d’ampleur. leur niveau d’indexation, réaliser des mappings complexes de l’arborescence,… il avait l’impression de ne pas maîtriser les choses. Donc, conformément à ce qu’il avait proposé dès son premier entretien chez Manageo, il a insisté pour mettre en place une solution d’analyse de la structure du site et des logs. 6
SURVEILLER SES LOGS POUR AUGMENTER SON BUDGET DE CRAWL Manageo surveille aussi ses logs de très près. Les moyennes données par la Search Console sont inutilisables pour eux. Il leur faut un découpage précis par typologie de pages, et non avec trois jours de décalage. Toute variation du crawl est un signal à Fréquence de crawl par groupes de pages prendre au sérieux. Le croisement de ces deux types de données leur fournit une visibilité sans pareil sur les points d’amélioration possibles pour leur site. Par exemple, le simple fait de passer en no-follow les liens qui pointent vers des pages en no-index évite au bot de butter inutilement sur des millions de pages et optimise clairement le budget de crawl. Cela a notamment permis d’orienter le crawl sur les pages stratégiques et de ne pas gaspiller de budget de crawl. Comportement du bot et optimisation du budget de crawl “OnCrawl est également très puissant lorsqu’il s’agit de repérer des groupes de pages ayant un contenu très proche l’une de l’autre. C’est un outil formidable pour lutter contre le duplicate content interne.” 7
Les notions de profondeur dans l’arborescence par la segmentation classique basée sur des URLs typologie de pages, ou encore l’étude de l’Inrank ne permettent pas toujours de remonter des infos sont de précieux alliés pour repérer des chantiers spécifiques aux pages comme la présence de bilan ou prioritaires. non, la typologie d’entreprise, etc. Ces données ne sont en effet pas présentes dans l’URL. La création de ces L’ajout des Custom Fields a permis d’améliorer Custom Fields a permis de venir scraper ces données encore leur segmentation du site, afin de faire et analyser si ces pages stratégiques étaient plus ressortir précisément les prochains chantiers sur visitées ou non et ainsi d’adopter la bonne stratégie. la base d’analyses croisées logs / crawl. En effet, Identification de groupes de pages avec des problèmes de canoniques. 8
AMÉLIORER LE CRAWL DES PAGES PRIORITAIRES Durant l’année écoulée, Philippe a mené de nombreux l’expérience utilisateur. Avoir des éléments explicites, chantiers pour améliorer le crawl de ses pages «scientifiques», mesurables, objectifs et bien mis en prioritaires, éviter le contenu dupliqué, rendre les forme a été un réel atout pour convaincre les services pages plus rapides à charger, travailler l’InRank, techniques et marketing du bien fondé d’un chantier maîtriser le linking interne et externe et améliorer transverse. Optimisations des performances “Tous ces changements ont été efficaces. Certains des données remontées par leur outil. Nous avons plus que d’autres. Les plus probants proviennent pour renoué avec la croissance et assez bien résisté aux la plupart de conseils donnés par OnCrawl sur la base nombreux passages de Google Phantom.” 9
Par exemple le nombre de pages dans l’index principal de Google a progressé de façon spectaculaire en réorganisant l’équivalent de leur descente produit, en travaillant des pages nœuds plus fortes et un fil d’Ariane plus cohérent. Et puis il y a parfois un écart important entre ce que vous croyez être l’arborescence de votre site et ce que Google voit. Ils ont, comme beaucoup, été pris par surprise lorsque Google s’est mis tout à coup à crawler des include en Ajax et à les considérer comme Statistiques d’exploration après les optimisations des pages à cause des paramètres. C’est 30% de leur mises en place données issues de la Search Console budget de crawl qui a été gaspillé. Certains changements ont été opérés à l’occasion de la refonte, durant laquelle ils ont fusionné leur site dédié mobile et leur site desktop en un seul site responsive ; mais aussi modifié l’arborescence, la structure des URLs et assuré le passage de http à https. “Bien sûr, j’étais bien content d’avoir un outil de crawl, ne serait-ce que pour exporter la liste des URLs et préparer les redirections 301 !” 10
Entre janvier 2016 et janvier 2018 ils ont pu par exemple : • éviter à Google de se perdre vers 3,5 millions de pages qui étaient en fait désindexées en retravaillant le maillage interne ; Pages uniques crawlées par Google • sortir du crawl des millions d’URLs avec des paramètres ; • mettre en place des sitemap 100% pertinents et bien découpés ; • ramener au strict nécessaire le volume de redirections 301 ; • identifier les typologies de pages à rendre plus rapides et améliorer considérablement le temps de chargement ; • retravailler les profils de liens internes et externes ; • optimiser les balises et les contenus ; • remodeler la profondeur des pages ; • nettement augmenter le nombre de pages utiles indexées. 11
Amélioration nette de la fréquence de crawl 12
À PROPOS D’ONCRAWL «L’interface des outils d’OnCrawl est remarquablement problématiques à des retours d’expérience d’autres ergonomique et intuitive. Évidemment on joue avec sites à forte volumétrie et gros trafic est un vrai bonus. des concepts qui demandent un peu de formation Je suis allé assisté à une conférence de François Goube afin de bien savoir de quoi on parle. Mais l’équipe à Paris à l’occasion de We Love SEO. Je ne pensais d’OnCrawl, basée en partie à Bordeaux s’est montrée très pas apprendre grand-chose de nouveau sur les Logs, disponible, patiente et d’une compétence professionnelle l’Analytics et le crawl. Et bien au contraire ! remarquable. L’arrivée d’Erlé Alberton a permis d’élever encore le niveau de service, en nous apportant une Autant dire qu’au-delà de ses outils, OnCrawl fait de expertise et une compréhension de nos attentes de la veille, alimente son blog et participe activement à haute volée. un partage de connaissances. En fait nous avons l’impression d’être impliqués dans Mon nouveau rêve serait d’orienter OnCrawl vers un le développement des outils puisque nos retours outil de mesure de la performance. Mais ce n’est pas d’expérience, favorisés par un système de chat intégré sa vocation première. à l’appli OnCrawl, sont pris en compte pour les futurs développements. Nous aimerions aussi traiter tous les logs et pas seulement ceux liés à GoogleBot et aux visites SEO. Avoir un regard extérieur sur son travail est aussi C’est techniquement possible, mais c’est surtout le très précieux pour un SEO in house. Dans un poste volume des données à transférer, stocker et traiter clé où on peut se sentir isolé, pouvoir comparer ses qui représente un frein.» 13
Testez OnCrawl par vous-même avec 14 jours d’essai gratuit Démarrez votre essai gratuit 14
Vous pouvez aussi lire