Nouveaux services SEO pour crawler votre site

Connaître l’état de votre site web n’est pas toujours à la portée de tous. Il existe plusieurs outils et services en ligne qui peuvent vous aider à mieux percevoir comment se présente l’ensemble des vos pages web. Ces nouveaux services ne sont pas encore accessibles à la publication de cette note mais cela arrivera prochainement.

Je vous signale trois nouveaux services qui démarrent :

Bien que ces outils reposent sur des concepts similaires, ils ont une identité propre et des approches métiers assez différentes. Ils ne sont pas forcément en mode « compétition » car ils s’adressent à des publics et des sites (thèmes, niches, taille, …) assez différents.

BOTIFY par SEM.io

Il s’agit d’un crawler qui va inspecter votre site et vous montrer l’ensemble de toutes vos pages web. Il va aussi analyser vos logs serveurs pour mesurer la fréquence et les pages visitées par GoogleBot. Par des analyses visuelles, il vous montre les ratios de pages visitées (ou pas) par catégories et par profondeur de navigation.

Cela vous permet de tirer quelques enseignements sur des problématiques de contenu dupliqué, sur le maillage interne, ….

Laurent Bourrelly a sorti une première revue du service Botify avec de nombreuses images permettant d’illustrer une méthode d’optimisation de l’architecture interne afin d’augmenter la visibilité (et le taux de crawl des pages par Googlebot).

L’objectif de l’outil est d’émuler le travail d’un moteur de recherche à l’intérieur de votre site.

Grâce à des réglages très fins, Botify définit tous les périmètres pour crawler le site.

Ensuite, les rapports vous permettront de prendre des décisions actionnables, qui peuvent positivement et radicalement changer la situation.

KYSOEBox par Yannick Simon

Yannick est l’ancien CTO de Rue du Commerce, la plateforme d’affiliation e-commerce leader en France. La performance SEO du site repose sur une série d’innovations pensée par Yannick qu’il met désormais aux services de grands sites e-commerces (en particulier) mais sûrement aux autres grands sites aussi.

Une preview d’une des premières versions de son prototype

Il propose une approche de rapports SEO automatiques (je cite ses principales fonctionnalités listées sur son site)

  • Rapports quotidiens sur vos mots-clés
  • Rapport mensuels sur les mots-clés qui génèrent le plus de trafic pour vos concurrents
  • Vérification temps-réel du respect de la syntaxe HTML
  • Mesure de la longue traîne
  • Identification des requêtes longue traîne à travailler en priorité
  • Mesure des performances techniques du site
  • Vérification de l’encodage des textes
  • Mesure automatique des backlinks
  • Mesure quotidienne des taux de crawl, d’indexation et de trafic par « répertoire«
  • Mesure quotidienne des taux de crawl, d’indexation et de trafic selon vos catégories

Et comme innovation une gestion entièrement automatisée de :

  • Elimination du duplicate content
  • Maillage interne automatisé
  • Gestion des balises dédiées à la pagination
  • Url rewriting
  • Maintenance continue du /robots.txt
  • Mise en place automatique des balises meta robots
  • Optimisation des liens en nofollow
  • Utilisation raisonnée des balises canonicals
  • Monitoring et optimisation du crawl de Google

Mitambo

Mitambo est une suite d’outils SEO qui repose sur un crawler que je développe avec mon frère qui est adaptée à la méthodologie présentée dans le livre SEO Décollage Immédiat. L’ensemble des éléments techniques proposés par les 2 services ci-dessus sont également pris en compte.

Nous sommes capable d’analyser des sites de plusieurs millions de pages. Un grand travail a été réalisé pour créer une interface d’analyse capable de classer les pages en combinant plus de 50 critères en parallèles.

Cette approche permet un travail en équipe pour identifier un groupe de pages (problèmes, template à retravailler, contenu thématique à restructurer, …) et chaque membre de l’équipe peut accéder en 1 clic au groupe de pages ad hoc. Quand vous devez en gérer plusieurs millions, retrouver 10 pages en deux ou trois filtres pour avoir le résultat instantanément relève d’un exploit. Et nous l’avons fait.

Analyse Sémantique

Une des spéficités est l’analyse sémantique des contenus et leur réputation de liens, où nous sommes capables d’identifier pour chaque page les différents mots-clés pour lesquels la page sera trouvée sur Google. A la surprise de leurs auteurs ce ne sont pas toujours les mots souhaités qui ressortent mais une fois qu’ils ont comprit la mécanique ils sont capables d’améliorer rapidement leurs résultats.

Pour vous donner un exemple pour un site de 50.000 pages, nous sommes capables d’extraire 3.000 à 8.000 positions inédites et d’indiquer un taux de fiabilité sur la position dans le top 10 des pages classées.

Problématique de Duplicated Content

Avec nos analyses sémantiques, nous sommes également capable d’identifier des pages qui respectent les « best practices » pour le contenu dupliqué (balise title, balise meta-description différentes, templates différents, …), qui pourtant parlent de sujets différents mais qui sont considérées comme identiques par Google Bot. Et ces pages peuvent se trouver dans des catégories (ou des silos différents) de votre site.

Il y a beaucoup de choses à dire sur ces nouveaux services … le mieux si vous êtes curieux est d’aller vous inscrire sur les différentes newsletters.