SEO Logs est un outil destiné à faciliter l’accès et la lecture des logs serveur d’un site internet. Les fichiers de logs sont des fichiers texte, enregistrés en temps réel sur le serveur où est hébergé le site. Toutes les requêtes d’internautes y sont stockées, ainsi que celles de toutes celles provenant de robots (moteurs de recherche comme Google ou Bing, crawlers web divers, autres).
Faciliter l’accès et la lecture des logs serveurs
Ne vous embêtez plus à traiter ces fichiers…
Pour un site de plusieurs milliers de pages et une longue période, les fichiers de logs atteignent vite une taille conséquente, avec des données très lourdes à traiter et à analyser. C’est fastidieux !
Et il est dommage de ne pas s’y intéresser car ces données contiennent de nombreuses informations qui vous aident à optimiser votre site, notamment d’un point de vue SEO (référencement naturel).
…l’import des logs est automatique et quotidien…
SEO Logs importe les logs chaque jour et de façon automatisée. Une fois la passerelle paramétrée et votre site configuré, vous analysez les données au quotidien et suivez les évolutions de crawl.
Les fichiers de logs sont stockés et historisés sur nos serveurs. Vous consultez des données sur une longue période et observez l’évolution du crawl des moteurs de recherche en fonction de vos interventions.
… optimisez votre site et rendez le plus performant !
Seo Logs vous débarrasse des contraintes de traitement de vos logs serveur. La solution SEO Logs facilite l’accès à vos données qui sont traitées, filtrées et historisées.
Pour vous, webmaster, référenceur, responsable de site, c’est non seulement un gain de temps énorme en perspective, mais c’est surtout une des clés liée à l’optimisation de votre site dans le cadre des nouvelles pratiques SEO. Le temps que Google consacre à votre site est précieux et doit être canalisé au mieux.
Mieux connaître l’activité des bots sur votre site
Contenu crawlé Vs contenu non crawlé
Chaque jour, les moteurs de recherche viennent sur votre site et crawlent du contenu. La quantité de pages visitées est variable, tout comme les pages qui sont vues. L’outil permet de déterminer quel contenu est crawlé par les moteurs de recherche comme Google, quels sont les répertoires que le moteur analyse le plus. A l’inverse, vous pouvez identifier le contenu qui n’est pas crawlé par les moteurs.
Le crawl correspond-il aux pages clés ?
Chaque site qui prétend recevoir du trafic depuis des moteurs de recherche possède ses pages clés (articles d’actualités, catégories d’articles, pages produits…) En observant le contenu crawlé par un bot, vous savez si le contenu le plus crawlé correspond à vos pages clés ou bien si le moteur crawle du contenu secondaire et peu intéressant. SEO Logs dresse un tableau exhaustif de la situation qui vous permet d’agir en connaissance de cause.
Ne plus gaspiller le crawl alloué par les moteurs
Les moteurs de recherche attribuent un quota de pages crawlées pour chaque site. Ce quota peut évoluer dans le temps, positivement ou négativement. Il faut essayer de faire en sorte que le temps que le moteur passe sur votre site ne diminue pas et soit le plus efficace possible. Laisser un moteur crawler des pages inutiles ou dupliquées relève du gaspillage et peut s’avérer contre productif.
Interventions et optimisations grâce à SEO Logs
Améliorer la structure de son site
Un moteur de recherche crawle des pages en suivant des liens. L’orientation du crawl est ainsi très dépendante, entre autres, du maillage interne d’un site. La façon dont les pages sont linkées entre elles, le volume de liens par page, les niveaux de profondeur sur lesquels se trouvent les liens ont une incidence sur le crawl des moteurs de recherche. En analysant la répartition du crawl par catégories de pages, on peut ainsi voir comment mieux canaliser ce crawl vers les répertoires et les pages importantes.
Identifier et corriger des comportements indésirables
L’analyse des codes HTTP renvoyés par le serveur aux moteurs de recherche permet généralement de nombreuses améliorations sur le site. Ainsi, vous pouvez déceler et corriger les pages en erreur (codes 4** ou 5** rencontrées sur le site), voir si les moteurs crawlent beaucoup de contenu redirigé (codes 3**). Autant d’améliorations possibles pour améliorer le passage des moteurs sur votre site.