Archive for the ‘ SEO ’ Category

bazinga-code

Toutes les bonnes choses ont une fin y compris le SEO. Google l’irresponsable, n’a toujours pas pris conscience de son rôle de service public, le géant fait ce qu’il veut quand il veut avec son algorithme et cela met en péril toute l’économie du web. Bientôt tous les petits acteurs du web vont devoir mettre la clé sous la porte ne sachant pas comment investir sereinement vis-à-vis de la folie destructrice du moteur de recherche.

Read the rest of this entry »

Penalité Vs. Filtre

Alors juste un petit article rapide pour suivre sur un petit échange que j’ai eu avec Jessy sur twitter à propos du Google hangout et dans lequel j’ai dit que je préférais me prendre une bonne vieille pénalité manuelle bien grasse dans le blaire. Plutôt que de subir un filtre… cette espèce de serpent automatique, pernicieux et vicelard qui plombe ton site un peu comme un cancer. Et je vais expliquer pourquoi :

Read the rest of this entry »

Dans la sphère SEO c’est un petit peu cyclique, tous les 6 mois, ou bien en fonction des saisons Googlesques, de la sortie ou de la mise à jour d’un Big Daddy (NDLR : ça c’était un update d’homme! Pas une petite Maj de fillette.), d’un Pingouin, d’un Panda, d’un hummingbird, le SEO meurt…Ça fait 10 ans que je bosse dans le SEO et ça fait 10 ans que c’est en train de mourir…. Je ne vous raconte pas l’agonie…

C’est un peu l’histoire de l’homme qui a vu l’homme, qui a vu l’homme, qui a vu l’ours… Il y a toujours un pélo pour dire que le SEO est mort, que le taf qu’on fait ne sert (plus) a rien, qu’on bosse tous dans le vent et que le monde dans son intégralité ferait mieux de se pencher sur le Social ou le PPC parce que décidément le SEO c’est mort.

Je pense bien au contraire que le SEO est plus Vivant que jamais laissez-moi vous expliquer pourquoi.

Read the rest of this entry »

Retour SMX – Journee 2 suite

2e conf’ Technically Speaking: Advanced Technical SEO Issues

1er intervenant – Maile Ohye de chez Google nous donne une overview de la nouvelle fonctionnalité des robots Google qui sont maintenant capable d’exécuter les javascripts – et croyez-moi ça change beaucoup de choses car il va falloir faire beaucoup plus gaffe à ce qu’on veut planquer ou non dans les Javascripts et notamment les liens – qui était auparavant “nofollow” (ou plutôt non exécuté… enfin officiellement) puisque javascript mais aussi les CSS et les scripts gérant la mise en page.
D’après les techies de chez GG le fait d’exécuter les scripts permet à GG de voir un peu comment est foutu votre site – en lieu et place d’un gros bloc de texte – de voir si l’user expérience est bonne et dans le long terme d’utiliser « peut être » ce paramètre dans l’algorithme. C’est aussi une fonctionnalité qui devrait régler les soucis avec les éléments en Ajax (textes, navigation etc…).
Joke du jour – mince fini les pages sat’ redirigées en javascript !

Maile va aussi nous faire tout un speech sur le passage en HTTPS et sur le fait que d’dorénavant HTTPS est aussi search friendly que le http – et par extrapolation je dirais même que si GG pousse le HTTPS dans le futur il y a des chances que HTTPS soit favorisé par rapport au http.

Tip du jour : Si vous passez en HTTPS – mettez tout en 301, pensez à bloquer la version http (duplicate), pensez à coller toutes les ressources en HTTPS et enfin pensez à passer vos canonical vers le HTTPS.

Eric Wu – Ajax et SEO

La pour le coup on sort un peu de ma zone de confort avec Ajax – perso j’aime pas mais Ajax est un bon moyen de rendre votre site plus rapide – et pour les version mobile, les stats montre que les utilisateurs préfèrent les infinite scroll … Donc Eric nous a présenté tout un tas de tips and advice sur les best practices au niveau Ajax en SEO friendly (infinite scroll, galeries, etc …- et je dois dire que si techniquement j’étais un peu perdu, au niveau UX les exemples montrés déchiraient leurs mamans.

Cliquez la pour la presentation de Eric WU - 

Bill Hunt – améliorer le crawl et l’indexation

Back to basics – si votre site n’est pas bien crawle… vous ne serez pas indexé et si vous n’êtes pas indexé vous ne rankerez pas… rien de révolutionnaire mais de bon rappels sur toute les petites erreurs qu’on peut voir dans le crawl et croyez-moi il y en a beaucoup. Enormément de petits Tips à ce niveau – gaffe au Upper/lower case dans vos URLs – soyez sur que toutes vos pages sont en canonical, les sitemaps ne doivent lister que les canonical, faites hyper gaffe au 404 et au soft 404 surtout. Rappelez-vous que les moteurs ne remplissent pas les formulaires donc faites attention avec votre navigation à facette. Conférence très intéressante pour moi puisque je suis en pleins dedans en ce moment sur les sites que je gère… de plus la conférence est très exhaustive tout y est passe ca permet de se faire une bonne petite checklist.
Pour rappel : L’optimisation du crawl et de l’indexation permet d’être sûr que vos pages produits « actives » sont actuellement indexées. Si vous gaspillez les ressources de Google au niveau du crawl, que l’intégralité de votre site n’est pas crawle ou que Google indexe des 404 par exemple – vous perdez du potentiel de trafic longue traine. Plus à un niveau plus globale cela joue sur la qualité générale de votre site et vous risquez de ranker moins sur les requêtes plus génériques.

Read the rest of this entry »

Le réveil est difficile pour tout avouer puisqu’après la soirée avec Brightedge (ou je n’ai pas gagné de Google Glasses – snif ! ) et bien je me suis penché sur la correction de l’ébauche de retour puis le post et enfin la modération des 1ers commentaires… bref la matinée commence doucement.

1ere conf’ ou plutôt Keynote – Cortana & The Predictive Search Future

J’etais parti pour publier un truc entier comme hier mais au final je vais mettre la 1ere conf’ en separee parce qu’elle était hyper interessante et que c’est du search… sans etre du search.

Cortana – c’est l’équivalent de Siri (mais en mieux) sauf que comme c’est chez bing, on a une vague idée de ce a quoi elle ressemble puisque c’est un des personnages de Halo.

Et c’est possiblement la nouvelle arme absolue de Chez Bing pour contrer l’avancée de Google sur le terrain encore vierge de la recherche mobile – et surtout predictive search – donc grosso modo un type de système qui va apprendre qui vous êtes et ce que vous faite et ce qui vous arrive dans la vie pour vous balancer les infos le plus pertinentes au moment où vous en avez besoin.

Et je dois dire que ca se tire la bourre avec Google mais dans l’absolu je pense que c’est un systeme qui pourrait permettre a Micrsoft de gagner du terrain sur le terrain des téléphones mobiles dans la mesure ou le system est très proche de la Xbox one  u niveau vocal – Cortana va chercher les infos sur le web, dans les éléments de votre vie SMS, Calendrier, email etc … et sur différentes Apps qui sont sur votre téléphone. Cortana est capable d’apprendre des choses par rapport a votre quotidien – par exemple au bout de quelques jours elle sera capable de voir si vous allez a certains endroits régulièrement – genre le matin pour moi a 8h – je droppe mon fils a la crèche – bon et bien Cortana vous demande si vous voulez mettre ce lieu dans sa mémoire pour qu’elles puisse vous aider avec vos futures demandes – (itineraire, reminder, etc…)

Conseil des mecs de chez Microsoft – mettez des microformats – c’est plus simple pour Cortana – elle identifiera plus rapidement le type de données + développez des apps sur windows 8 – c’est apparemment hyper simple – puisque Cortana ne cherchera pas uniquement sur le web avec le temps et les réglages que vous y ajouterez . pensez aussi que vs apps vont pouvoir balancer des infos a Cortana en fonction de vos réglages – I.E vous faites vos course a carrefour – l’app « carrefour »peut balancer a Cortana tous les meilleurs coupons disponible et cortana vous enverra un reminder de ces coupons en fonction de vos gouts et de vos besoins quand vous entrerez dans tel ou tel supermarché.

SMX seattle Day 1

Retour SMX Advanced Seattle – Day 1

Aaaaah… Alors… premier SMX depuis fouillaaaa… longtemps puisque le dernier était à Londres donc avant 2008 et surtout 1er SMX sur le territoire américain et on a beau dire qu’il y du beau monde sur les SMX que je qualifierai de “locaux” comme le SMX paris ou autres, on ne peut pas nier le fait qu a New York ou Seattle on a des chances de voir quelques conférences de certaines méga Star du SEO, avec tout le respect que je dois aux gens qui font le SMX Paris.

Bref je suis tout excite malgré mon âge avancé de dinosaure du web… dommage que certains de mes contacts ne soit pas là je vais profiter pleinement des conférences mais je pense que l’after n’aura pas le cachet d’un SMX Paris ou d’un SEO campus… Voici un retour sur l’évènement plus ou moins écrit en direct :
Bon alors déjà le SMX Seattle si tu veux faire ton bon élève et taffer, il faut arriver tôt, sinon tu ne choppes pas de table et tu te retrouves dans la salle avec ton portable sur les genoux – Et c’et pas pratique quand le Wifi arrête pas de planter – Note aux conférence centers – pensez a blinder vos Wifi avant les conf’s marketing – ça craint d’être au SMX et de voir le wifi planter toutes les 2 minutes.

Read the rest of this entry »

Le 13 Mai dernier, Raphael Doucet était l’invité du Podcast de Laurent Bourrelly, podcast durant lequel ils ont entre autres couvert le sujet des pénalités Google, de comment ça restait un boulet accroché aux basques de votre site et qu’on s’en remettait jamais vraiment complètement ; mais aussi à propos de comment les gens qui parlaient de sorties de pénalité ne donnaient jamais vraiment ni les chiffres ni les détails de la pénalité.

J’ai donc décidé suite à ce podcast de faire un article ou je vais tenter de donner un maximum de détails sur comment s’est passé une pénalité sur un des sites dont je m’occupe. Alors soyons clair dès l’intro de l’article – je ne peux décemment pas balancer toutes les données, c’est juste impossible – mais je vais tenter de donner un maximum de détail sur le comment du pourquoi, sur l’impact de la pénalité en termes de trafic, de pognon, sur ce qui a été fait, sur comment le site est revenu, sur s’il y a des séquelles ou pas. J’en profiterai au passage pour tordre le cou à un mythe.

Attention c’est parti !

Read the rest of this entry »

Petit guide de communication avec votre équipe web

Pour ceux qui ne le sauraient pas encore, je suis depuis décembre dernier, passé du côté annonceur de la force. Et après 10 ans de travail en agence il faut bien avouer que ma perspective sur le boulot a changé quelque peu notamment sur ma communication avec nos amis les développeurs. Il faut dire que le contexte a changé – lui aussi quelque peu :

En agence j’avais la majorité du temps affaire avec d’autres prestataires web – ce qui complique {Souvent | Toujours} les choses {parce que vous voulez lui taxer le contrat dev | Parce qu’il veut vous taxer le contrat SEO | parce qu’ils sont mauvais | parce que le client n’a plus de budget pour payer vos optis | … } et quand je devais passer par les équipes internes du client on me donnait souvent la priorité – on paye un presta – on veut du résultat – on met les optis sur le haut de la pile.

In House ma foi j’ai une équipe IT assez importante, plutôt douée donc les problèmes de communication inter-prestataires ne se posent pas – par contre … au niveau des priorités… c’est un autre souci.

Voici donc quelques conseils pour que vos demandes d’optimisations soient misent en place plus vite que les demandes des autres:

Read the rest of this entry »

Les conf’s du SMX 2014

Cette année encore la grand-messe du SEM aura lieu à Paris les  16 et 17 juins et compte tenu du prix du Pass 2 Jours il vaut mieux que ça envoie du lourd parce que 695€  entre nous ce n’est pas donné tout de même. Il est donc important de bien choisir les conférences auxquelles on va se rendre histoire d’amortir au mieux votre investissement – car oui aller a des conférences c’est à mon avis un investissement dans la mesure ou que ce soit en ON ou en OFF on repart rarement bredouille de ces évènements.

Read the rest of this entry »

Les demandes de reconsidérations sont-elles revues par des humains?

C’est la question que Bill Hartzer s’est posé suite au déclin de sa demande de reconsidération pour liens artificiels par les services du SQE. Il faut dire que d’après son article il en a abattu du taf pour nettoyer son profil de lien l’ami bill avec la mise en place d’un fichier de désaveu des écoles, propres et tout avec des petite notes combiné avec un gros gros, gros, gros travail de contact des webmestres histoires de leur faire retirer les liens spammy.

Tout ce travail pour recevoir l’habituelle réponse du service SQE :

Et c’est vrai que quand on reçoit ce genre de mail, surtout si on a vraiment bossé  – c’est décourageant…  et on finit par se dire qu’en fait chez GG ils nous prennent pour des fruits, que nos mails ne sont pas lu et que c’est un robot – pas très futé en plus de cela – qui traite les demande de réexamen à la louche  et qui en plus a le culot de nous renvoyer 3 exemples de liens tout moisi qui ont déjà été soit viré soit inclus dans le fichier de désaveu.

Et pourtant !

Et pourtant je n’ai pas de raisons de douter des dires des petits gars SQE (justement) quand ils nous disent traiter toutes les demandes à la pogne lors du Google Hangout et je pense (et cela a été confirmé par nombre de sources) qu’effectivement chaque demande est traité a la main. Mais alors il est où le souci ? Allez-vous me demander ! Pourquoi est-ce que le mec il nous colle des liens dont on s’est déjà occupé ? Le souci, chers lecteurs,  c’est que l’ami Bill (et vous-même, si vous pensez comme Bill) ne s’est pas posé les bonnes questions lorsqu’il a reçu la réponse du SQE. Quand on voit sa demande de réexamen être  refusé les bonnes questions qu’il faut se poser sont les suivantes :

Read the rest of this entry »