Propriétaire d’un site web, vous vous apercevez soudain que le trafic est en baisse. Premier reflexe d’un bon professionnel, vous vous tourner vers Search Console et effectuez une analyse de vos données Google Analytics. Sauf que le problème persiste. C’est là qu’une analyse de log s’impose car c’est alors le seul moyen pour vous de repérer le réel souci qui bloque le trafic sur votre site.

Vous l’aurez donc compris, l’analyse de log vous permet de faire un diagnostic complet des soucis techniques auxquels le référencement naturel de votre site est confronté. Par la suite, vous constaterez que plus vous apporter des améliorations à votre portail, mieux se porte le trafic. Une solution beaucoup plus efficace et plus concrète pour corriger certaines erreurs commises sur le site, mais qui ne s’affichent pas toujours sur Search Console.

Plusieurs logiciels sont disponibles sur le marché pour faire l’analyse des fichiers log. La plupart des startups sont payants comme Botify, Splunk ou Kelo.gs. Mais il existe aussi quelques logiciels open-source comme watuss et des « log analyzer » comme Logmatic.

Il faut savoir qu’avec de tels logiciels sur votre site, il devient possible de faire un suivi en permanence de tous les événements qui se produisent au niveau d’un serveur tel qu’IIS, Ngnix ou « apache access ». Un moyen idéal pour obtenir les données exactes sur la fréquentation de votre site en ligne. Et en outre une solution pratique pour se mettre à niveau dans votre quête de succès sur Internet.

Il faut reconnaître que Google propose déjà cette solution grâce au GoogleBot. Mais vu qu’il s’agit d’un produit en perpétuel évolution, certaines données échappent à son contrôle, d’où la nécessité de faire une analyse des logs. Grâce à cette analyse, vous aurez plus de précision sur plusieurs points intéressants. A savoir :

  • Le taux de crawl global et par niveau de profondeur des pages de votre site.
  • Le volume de pages repérées en temps réel à côté des pages que Google trouve.
  • Le taux de crawl des pages actives et des pages inactives avec les indices de fonctionnalité (mot-clé, contenu, photo, etc.)
  • Les pages les plus visitées.
  • Les codes retours des recherches.
  • La qualité du Netlinking.