Salut à tous, Ça faisait longtemps que je n’avais pas publié sur le muscle tiens… ca fait plaisirs de s’y remettre un peu et promis je vais tenter de publier plus.
Aujourd’hui j’ai le plaisir d’accueillir Olivier Papon qui va nous parler de son outil de crawl et d’analyse de logs et de sa vision sur l’évolution du métier SEO.
Alors Tout d’abord Olivier, pour ceux qui ne te connaissent pas est-ce que tu pourrais te présenter rapidement :
Bonjour Julien, et merci pour l’invitation sur ce blog qui a traversé les âges du SEO.
NDLR : 12 ans ! putain ! 12 ANS qu’il va avoir le blog !!! Je suis vieux !
Ce n’est pas rien, c’est même un honneur ! Olivier, 39 ans, j’ai aussi traversé les âges du SEO, puisque j’ai commencé à m’intéresser au sujet en 2005. De formation développeur, je me suis spécialisé avec un master “Stratégie Internet et pilotage de projets en entreprise” (si si ! ça existe je vous assure). C’est pendant cette dernière année d’étude que j’ai développé une plateforme de blogs qui m’amènera naturellement à découvrir le référencement pour générer du trafic.
Par chance à l’époque, et afin de valider mon master, je trouve un stage en agence SEO qui confirmera mon appétence pour le domaine (il faut dire qu’à l’époque c’était à la fois simple et fun) et se conclura par un CDI. J’ai ensuite poursuivi mon parcours professionnel en tant qu’éditeur de sites pendant plusieurs années.
Vers 2010, j’ai ressenti le besoin de travailler à nouveau en entreprise, avec l’opportunité de mettre mes compétences à disposition de pure player dans le domaine des comparateurs de prix et de la presse, tout en conservant mes sites à côté. Gérer des titres à fort trafic a été particulièrement enrichissant, une très belle aventure, avec de jolies courbes de croissance !
Comment passe-t-on de salarié à créateur d’outil ?
Je crois que la réponse est la même pour tous les créateurs d’outils : répondre à un besoin :). J’étais à la fois salarié et éditeur de sites, et j’avais besoin de comprendre comment Google ingérait les sites que j’avais dans mon périmètre. Bien sûr nous disposions déjà de Google Webmaster Tools (pour les lecteurs les plus jeunes, il s’agit en fait simplement de l’ancêtre de la Google Search Console actuelle), mais l’outil ne comportait que quelques graphes agrégés, avec plusieurs jours de retard, autant dire pas grand-chose pour travailler convenablement, dans un milieu aussi changeant que la presse d’actualité.
Nous sommes en 2014, il existe un seul outil d’analyse de logs sur le marché, Botify, et mes supérieurs me font comprendre qu’il faudra que je me débrouille sans budget, et donc sans outil dédié : qu’à cela ne tienne ! Sur mon temps libre, je me plonge dans le stack ELK (ElasticSearch Logstash Kibana) qui permet d’ingérer des logs serveurs gratuitement (hors coût du serveur). C’est une révélation pour moi : Je suis capable de dire ce que Googlebot a parcouru la veille sur les sites que je gère, de manière exhaustive, et avec des données réelles. Je commence à en tirer des recommandations SEO qui portent leurs fruits rapidement.
Seulement après quelques mois d’utilisation, je me retrouve confronté à deux problèmes de taille :
- J’ai besoin d’avoir mes logs en live pour être réactif sur les mises en production qui pourraient créer des régressions, et pour me permettre d’échanger le jour même avec mes collègues journalistes à propos des performances des articles publiés qui génèrent du trafic (ou pas).
- J’ai besoin de catégoriser mes pages de manière dynamique, en temps réel, j’ai en beaucoup et ça c’est simplement impossible avec Kibana.
ELK est parfait pour la centralisation de logs orienté devops dans une infrastructure mais il n’est pas adapté, et difficilement modifiable pour intégrer une surcouche métier purement SEO. Je commence donc à coder Seolyzer fin 2014 début 2015 pendant les vacances de Nöel.
Seolyzer est sorti publiquement en 2017, qu’as-tu fais pendant ce laps de temps ? Vacances ?
J’étais encore salarié sur cette période, le travail sur Seolyzer se concentrait principalement le soir et les week-ends. Ajouté à cela, j’avais à cœur d’apporter quelque chose de nouveau, d’innovant sur le marché pour me démarquer, à savoir l’analyse de logs en temps réel, à la seconde près, et que ce produit soit accessible au plus grand nombre de référenceurs.
C’était un énorme défi à relever en termes de R&D, car pour être accessible au plus grand nombre, le service se devait d’être peu coûteux en infrastructure. La contrainte supplémentaire est que tout traitement en temps réel, ligne par ligne, est beaucoup plus gourmand qu’un traitement par lot (un fichier de logs brut pour exemple). Si l’on prend l’exemple de Google Analytics, seuls quelques indicateurs agrégés sont disponibles en temps réel, alors que l’intégralité des données (et encore… échantillonnées…) prendra plusieurs heures à remonter dans les tableaux de bords.
J’ai donc consacré deux années à la R&D, à tester une multitude de technologies “Big data”, de langages, d’infrastructures, de serveurs, de les soumettre à de fortes charges, de leur faire ingérer des Téraoctets de données quotidiennement, pour enfin trouver la formule parfaite.
Tu l’évoquais, l’outil sort publiquement en octobre 2017, et est extrêmement bien accueilli par la communauté SEO.
Seolyzer a beaucoup évolué depuis cette date, notamment sur la partie crawler, comment gérez-vous ces évolutions ?
En tant que SEO, nous utilisons des crawlers depuis deux décennies, avec Xenu initialement, puis Screaming Frog vers 2010 : le crawler est tout simplement l’outil de base du référenceur. C’est donc assez naturellement qu’un crawler a été ajouté sur Seolyzer après l’analyseur de logs. Sur ce sujet aussi, des travaux de recherche importants ont été entrepris, avec l’objectif d’être capable de crawler des sites volumineux, avec plusieurs dizaines de millions de pages pour un coût réduit. Chaque octet en mémoire, chaque écriture sur disque évitée a été une victoire, pour les “toqués” du code que nous sommes.
J’aime à rappeler qu’au-delà du fait que cela nous permet de proposer un service particulièrement accessible à nos utilisateurs, cela permet aussi de limiter notre impact sur l’environnement, c’est quelque chose qui nous tient à cœur.
Concernant les autres évolutions, nous restons simplement très à l’écoute de nos utilisateurs et répondons simplement à leurs besoins. Nous nous attachons au fait que Seolyzer doit rester un outil fait par des SEO pour des SEO, puisque c’est ce qui a fait son succès.
Il existe des douzaines d’outils SaaS orientés SEO technique, pourquoi choisir Seolyzer ?
Tu as raison, le nombre d’outils SEO Technique a considérablement augmenté ces dernières années, notamment via l’Europe de l’Est. J’imagine que nous traitons tous les mêmes indicateurs basiques du SEO : status code, metas, tags, temps de réponse, page rank, pages orphelines etc. et c’est tout à fait normal. Si tu amènes ta voiture au garage pour un audit technique, et quel que soit le garage, il vérifiera les niveaux, les bougies, les phares, les clignotants, la pollution etc. puisque ce sont les indicateurs de santé du métier.
Seolyzer se démarque sur d’autres aspects : l’UX (simplicité d’utilisation et d’activation), l’innovation et le tarif.
J’ai la chance de ne jamais avoir eu accès à d’autres outils, c’est un point structurant car je n’ai pas été formaté à une utilisation particulière, je n’ai pas d’idées préconçues sur l’UX, et cela permet clairement à Seolyzer de se démarquer. Sur Seolyzer, chaque indicateur possède sa propre page avec son graphique et ses données brutes en un seul et même endroit, filtrables, exportables en un clic : à l’usage c’est un gain de temps très apprécié de nos utilisateurs. Le leitmotiv est de présenter les indicateurs un à un de la manière la plus simple, et le plus rapidement possible, même sur d’énormes volumes de données.
Depuis les premières lignes de code, nous avons eu à cœur d’innover afin que chaque SEO dispose de ses données en temps réel, afin de sécuriser son trafic et de gagner du temps au quotidien. Dans les faits, nous avons été les premiers à proposer de l’analyse de logs en temps réel, avec une installation simplissime (fini de demander les fichiers de logs à l’équipe IT tous les mois !), des catégorisations de page multi niveaux et temps réel, du monitoring de robots.txt, une analyse du trafic Discover en temps réel etc…
Je t’en parlais précédemment, notre implication dans la R&D nous a permis d’être non seulement respectueux de l’environnement, mais surtout de proposer un tarif très attractif sur le marché, nos utilisateurs s’y retrouvent naturellement.
Pour conclure, comment se présente globalement l’avenir du SEO selon toi ?
Indéniablement le SEO se complexifie, mais se professionnalise, il existe déjà une multitude de spécialités alors que le métier n’est pas encore tout à fait rentré dans les mœurs. Il reste encore beaucoup à faire pour que le réflexe SEO soit intégré dans tous les projets (création de site, refonte, changement de nom de domaine, de CMS…) en avance de phase, mais on y vient petit à petit, à nous de prêcher la bonne parole avec intelligence.
Concernant la pratique du métier, je constate récemment une appétence forte pour l’optimisation sémantique, et les outils français n’y sont pas pour rien. J’admire des outils comme YourTextGuru qui se sont démocratisés à une vitesse folle dans l’hexagone, si bien que tous les SEO français s’en servent à date ou presque. Si tout le monde fait de l’optimisation sémantique, j’ai tendance à croire que la différence dans les SERP se fera probablement sur les autres piliers : SEO Technique et popularité.
Les sujets vont et viennent, on s’adapte, c’est la beauté de notre métier !
Encore merci Julien, ce fût un plaisir ! 🙂
NDLR : Merci à toi Olivier ! Tout le plaisir est pour moi et j’espère t’avoir bientôt sur le blog pour une petite étude de cas des familles !
Ca fait plaisir de revenir sur ce blog lire des interviews intéressantes sur le SEO, to be continued Julien ! J’ai croisé Olivier au SDDAY à Toulouse, quelqu’un de très accessible et passionné par le développement. C’est sûr que nous avons une chance inouïe de pouvoir compter sur tous les outils qui sont proposés au sein de la communauté francophone, en plus des autres.
L’analyse de logs est une des spécificités du SEO (je ne m’en sers que pour les sites à très forte volumétrie) qui a de beaux jours devant elle. En effet, dès lors qu’on souhaite comprendre certains faits difficilement explicables autrement ou que l’on souhaite travailler son maillage interne par exemple, l’analyse de logs est une ressource primordiale.