Seo Logs
  • SEO Logs
  • Intérêt
  • Fonctionnalités
  • Tarifs
  • Contact
  • Demo
  • Rechercher
  • Menu Menu

Fonctionnalités détaillées

Vous êtes ici : Accueil1 / Fonctionnalités détaillées

Vos outils dans SEO logs

Code HTTP

Dans cette rubrique, vous avez un aperçu rapide de la répartition du crawl et des codes HTTP rencontrés (codes de réponse valide 2xx, codes de redirections 3xx, codes erreur côté client 4xx et codes erreurs coté serveur 5xx).

Ces données sont indiquées en pourcentage du volume total d’url crawlées. Des tableaux de bord affichent également la répartition du crawl par catégories d’urls.

Type de page

seologs categorisation

Dans cette page, vous avez à disposition la répartition du crawl selon les catégories d’urls que vous avez définies. Vous voyez en un coup d’oeil quelles sont les types de pages qui concentrent la majeure partie du crawl.

Chronologie

evolution crawl moteur recherche

Dans cette rubrique, vous avez un aperçu rapide de la répartition du crawl dans le temps. Elle vous permet de connaitre le nombre d’url crawlée au quotidien par les moteurs de recherche.

Nouvelles urls crawlées

evolution crawl moteur recherche

Nous proposons une information intéressante qui concerne le nombre de nouvelles urls découvertes par les moteurs. Une url est considérée comme « nouvelle » si elle n’a jamais été crawlée sur la période totale de datas. Notamment utile dans le cas de la création de nouveaux contenus pour savoir s’ils sont bien trouvés par le moteur.

Recherche d’urls

seo logs

Dans cette partie, vous retrouvez  l’intégralité des urls crawlées sur la période demandée.

Plusieurs informations sont affichées dans ce tableau : l’url, le dernier code HTTP trouvé sur la période, le nombre de fois que l’url a été crawlée sur la période, la date du dernier crawl. Vous pouvez ajouter des filtres pour affiner l’affichage.

Vous pouvez également filtrer le tableau pour n’afficher que les nouvelles urls crawlées, c’est-à-dire celles qui ont été crawlées pour la première fois lors de la période demandée

Vue détaillée

En cliquant sur une url, vous avez un focus sur celle-ci. Vous visualisez l’évolution du crawl de cette url dans le temps et les différents codes HTTP qui ont été rencontrés.

Export CSV

logs csv seo

Chaque tableau est exportable en csv en un clic afin de vous donner la possibilité de retravailler vos données et éventuellement de les croiser avec d’autres outils.

Et bientôt plus !

Nos équipes travaillent au quotidien pour améliorer l’outil qui va s’enrichir de nouvelles fonctionnalités rapidement.

Filtrer les données

  • Moteur de recherche

    La plupart des moteurs de recherche utilisent une “signature” lors de leur visite. Celle-ci permet de les isoler de consulter l’activité pour n’importe quel moteur de recherche ou robot. Dans sa formule de base, SEO Logs récupère les données remontées par le crawl de Google. Mais Il est possible à la demande de rajouter d’autres robots pour un suivi au niveau de l’interface. (Bing, Yahoo, Baidu…)

  • Date et période

    Par défaut, SEO Logs affiche les 30 derniers jours de logs. Mais la consultation de toutes les rubriques proposées dans SEO Logs est filtrable par date. La période par défaut est fixée aux 30 derniers jours. La période peut être aussi longue qu’il y a de données disponibles. L’outil  agrège un historique de 12 mois de données par défaut.

  • Expressions régulières

    Les filtres proposent de nombreuses possibilités et peuvent être cumulés. Plusieurs critères sont travaillés au niveau des filtres : l’url des pages, le code HTTP, la catégorie, le nombre de crawl.

    L’outil propose des filtres simples qui mais aussi des expressions régulières qui permettent d’englober une série d’url répondant à un même schéma. (travail par répertoire ou par type de page…)

  • Pagination

    La gestion de la pagination sur un site web à gros volume est souvent un cas qui pose problème aux webmasters : noindex ? interdiction de crawl ? aucune règle spécifique ? Par défaut, les moteurs de recherche peuvent crawler tout ou partie de ce contenu qui peut atteindre souvent des niveaux de profondeur record. La pagination profonde est un contenu secondaire et c’est pourquoi il peut être intéressant de savoir dans quelle proportion les robots de moteurs le parcourent et s’ils y consacrent vraiment trop de temps. Auquel cas, une mesure s’imposera peut-être pour réduire le temps passé dans la pagination profonde.

Paramétrage de projet

  • Segmentation des urls

    Au lancement du projet, la première étape est celle de la catégorisation qui fonctionne à l’aide d’expressions régulières que vous injectez dans votre back office. L’objectif est de segmenter les urls du site en vue de les catégoriser en fonction de vos pôles d’intérêt.

    Chaque catégorie créée est analysable séparément.

    SEO Logs permet d’effectuer cette opération directement depuis l’outil afin que vous soyez autonome dans la gestion de vos projets. Si de nouvelles urls sont créées, elles peuvent ainsi être ajoutées à la catégorisation existante et ce sans limitation.

    Si vous le souhaitez, nous prenons en charge cette mise en place pour votre compte (option, nous contacter )  lors de la création du projet.

  • Logs serveurs de sous domaines

    Si votre site comporte un ou plusieurs sous domaines, le crawl de ces derniers sera bien entendu une donnée intéressante à analyser. SEO Logs remonte les informations concernant le crawl de votre domaine principal et des autres domaines.

    Seule particularité, effectuer une intervention du côté de votre configuration Apache pour que le nom d’hôte remonte dans les logs. Sans ça, l’outil ne fera pas de différence entre les urls du domaine principal et les urls des sous-domaines.

  • Isoler le contenu paginé

    Tout comme vous pouvez paramétrer la catégorisation de vos urls, vous pouvez mettre en place, via une expression régulière, un filtre qui isole vos paginations.

SEO Logs - FranceProNet | Mentions légales | Conditions Générales d'utilisation
Faire défiler vers le haut