Lanalyse de logs

Les logs sont des éléments indispensables dans le cadre de votre stratégie digitale. Même si notre agence SEO vous propose ses services afin de procéder à vos analyses de logs, il est tout de même intéressant pour vous de comprendre de quoi il s’agit. De la définition à leur utilisation en passant par l’utilité de ces logs, gros plan sur une analyse qui pourrait faire décoller les fréquentations de votre site internet.

Questce quun log ?

Il est toujours utile de préciser de quoi nous allons parler surtout lorsqu’il s’agit d’un terme technique. Commençons donc par comprendre ce que signifie ce terme de log.

Les logs sont des fichiers qui se trouvent sur le serveur web de votre site internet. Ces fichiers ont pour but d’enregistrer toutes les visites sur votre site internet. Ainsi, si un robot comme le célèbre Googlebot mais aussi un visiteur lambda se rend sur votre site internet, une ligne de données sera créée sur le serveur. Cette ligne de données s’appelle un log file.

Pour retrouver ces logs et pouvoir les analyser, il faut que vous puissiez accéder à votre serveur web. Si cela vous est impossible car vous n’avez pas la main sur le serveur, demandez à l’hébergeur de votre site qui vous indiquera comment faire pour récupérer vos logs.

A quoi servent les logs ?

Les logs contiennent tout un ensemble d’informations sur les individus ou les robots qui sont venus visiter votre site web. Vous pourrez ainsi retrouver qui a visité votre site web, à quelle date, quelle page a été visitée mais aussi des informations plus pointues comme le code-réponse de la page visitée par exemple.

Dans le cadre du robot de Google appelé Googlebot, il sera très intéressant d’avoir des informations sur ses visites afin d’améliorer considérablement le référencement de votre site internet. Grâce à vos logs, vous allez pouvoir savoir quelles pages sont vues (on parle alors de crawl) par Google, à quelle fréquence Google vient rendre visite à votre site internet (sachant que si Google fréquente très souvent votre site cela indiquera que celui-ci est en bonne voire en très bonne santé) mais aussi, et cela est au moins tout autant intéressant, quelles pages Google ne vient-il jamais voir.

Toutes ces informations recueillies vous permettront alors de mettre en place une stratégie afin d’emmener les robots Google vers les pages qui ont le plus d’intérêt pour vous et ainsi optimiser le référencement naturel de votre site.

Lanalyse de logs afin dorienter le crawl de Google 

Une fois que votre analyse de logs a été consciencieusement réalisée, vous savez quand et comment Googlebot vient scruter votre site. Il est maintenant temps de tout mettre en œuvre grâce à ces données recueillies pour pouvoir orienter efficacement le moteur de recherche ce qui conduira à l’optimisation de votre adresse internet et donc à l’augmentation du trafic sur votre site.

Il faut tout d’abord savoir que le géant Google, malgré les énormes data centers à sa disposition, ne va mettre qu’une petite partie de son attirail pour crawler votre site. Certains crawlers de Google seront donc assignés à l’indexation de votre site internet : c’est ce que l’on appelle le crawl budget. Mais attention, Google ne dépasse quasiment jamais le budget qu’il vous a alloué. Ainsi, si votre crawl budget est de 100 pages par jour, les robots Google viendront crawler 100 pages environ et pas 200 ou 500. Il est donc indispensable que les pages que vient crawler Googlebot soient celles qui ont le plus de valeur dans votre site internet.

Pour que les robots Google puissent se retrouver dans la multitude de pages qui composent votre site internet, il est indispensable de procéder au nettoyage de votre site. Pour cela, en analysant les logs, vous avez pu constater quelles sont les pages visitées et quelles sont celles qui ne le sont jamais. Ces pages qui ne connaissent jamais un visiteur sont des « pages orphelines ». Il est conseillé de les supprimer de votre site ainsi que les pages d’erreurs quelles qu’elles soient. De plus, il faut limiter un maximum les pages dupliqués c’est-à-dire deux pages qui auraient le même contenu.

Une fois toutes ces pages supprimées, le budget crawl que Google vous aura octroyé sera dépensé vers des pages qui ont un grand intérêt pour vous à être indexées afin d’améliorer votre référencement puisque Googlebot ne passera plus son temps à aller voir un page d’erreur ou encore deux fois la même page. Et sans l’analyse de logs, il est impossible quelles sont les pages préférés de Google et qu’elles sont celles qu’il aime moins. Vous pouvez ensuite réaliser des restructurations de vos pages pour que Google vienne visiter vos pages moins fréquentées mais qui ont une importance pour vous.

Cette analyse de logs doit être réalisée au moins une fois par mois (voire plus) afin de pouvoir agir tout de suite sur la structure de votre site et sur les mots-clés qui composent vos pages. Cette analyse revêt donc un caractère indispensable dans l’optique d’un référencement optimal de vos pages internet.