Case Study White Hat
Vous possédez un site e-commerce et vous (ou votre prestataire) avez abusé des techniques de link building « border line » (en connaissance de cause ou non), ou alors vous avez (trop ?) basé votre stratégie de référencement sur le link building et malheureusement pour vous, Panda dans un premier temps, puis Pingouin (et possiblement d’autres pénalités) sont venu handicaper vos site jusqu’au point de mort cérébrale ? Le cas d’école qui suit devrait pourvoir apporter quelques réponses sur la manière de vous sortir de l’ornière tout en remettant votre site sur de bons rails et sur le long terme. Ce billet va décrire comment j’ai réussi à sortir partiellement le client qui m’a inspiré mon coup de gueule du 30 avril dernier « Lettre Ouverte aux -soit disant SEO- qui ont pignon sur rue ».
La stratégie qui suit est ouvertement et je dirais même exagérément {White Hat | Bisounours} mais elle a pour mérite d’avoir marché (en tout cas les premiers résultats sont encourageants) et d’avoir rassuré un client échaudé non pas par 1 mais par 2 prestataires SEO « médiocres » (et je suis poli).
Le client
Le client est un pure player online dans le business de vente de linge de maison – la compagnie possédaient un total de 10 sites (tous développé sous Magento) dans cette branche et 1 site dans une autre branche. Tous les sites ont été pénalisés sans exception et lorsque j’ai pris le client en charge les sites présentaient les problèmes suivants :
- Duplicate content Interne et externe – Non seulement les fiches produits étaient dupliquées entre les sites mais on pouvait aussi atteindre un fiche produit sur un site via une multitude de chemin (et par conséquent d’URL) sur un même site.
- Les sites avaient tous subi des blasts de liens que je qualifierai de « conséquent » avec moulte PR dupliqués, splogs, spamco, spam de fora etc… (je vous passe le détail – voir graph ci dessous).
Les pénalités
J’ai pu noter 2 pénalités bien distinctes :
- Un filtre qui s’est attaché comme une sangsue sur le site « principal » dont le trafic moteur s’est mis a mourir a petit feu (de 1500/semaine a 180/semaine)
- Une pénalité bien plus violente et qui a dans un premier temps divisé le trafic par 2 doublé d’un filtre qui lui aussi a étouffé le peu de trafic restant sur le site petit a petit
Comme Google est un grand seigneur – je n’ai pas pu compter sur un quelconque message dans le GWT cela aurait été trop beau mais bon – les symptômes étaient relativement clairs.
Les objectifs et la stratégie
Les objectifs étaient simples en théorie : Faire en sorte de refaire un maximum de trafic dans un minimum de temps – Faire en sorte de sortir le business de la zone noire Google tout en redonnant confiance au client dans la communauté SEO.
En théorie la stratégie elle aussi est simple – repartir de zéro mais tout en tentant de conserver un maximum de bonnes choses qui avait pu être faite sur les sites précédents même si honnêtement il n’y avait pas grand-chose à sauver. Mettre l’emphase sur des optimisations techniques durables et qui pourront permettre un départ de trafic longue traine rapide. Dans un second temps relance d’une stratégie de link building cohérente.
Les actions mises en place
En premier lieu mise en place d’un nouveau NDD et mise en place d’un site proprement optimisé :
- Mise en place de templates propres (je ne donne pas le détail mais rien de revolutionnaire)
- Mise en place de microformats sur les pages produits
- Mise en place de titres et descriptions dynamiques qui se construisent en fonction du chemin de navigation internaute (les fiches produits sont accessible par sélection de paramètres produits (prix, couleur, taille, marque etc…)
Exemple de description: “monsite.com est la source en ligne pour l’achat de “Size” “product type”. Trouver les meilleurs “Color” “type” “Style” “size” “product type” from “brand” sur monsite.com”
- Suppression du problème de duplicate content interne avec la mise en place de tag canonical
- Sacrifice et parking de la quasi- totalité des sites pénalisé avec redirection 301 des pages internes vers leurs homes respectives et mise en place d’une page « nous avons déménagé » avec redirection en meta refresh + liens Javascript afin de limiter les chances de propager les pénalités des anciens domaines vers le nouveau.
Le choix de ne pas rediriger en 301 est délibéré – Il aurait certainement été possible de faire des 301 pages a page au niveau des fiches produits mais nous ne voulions prendre véritablement aucun risque pour le nouveau site.
Pour les sites qui ont été conservés 2 actions ont été mise en place pour les produits dupliqués :
- migration de produits pour que les produits ne soient plus dupliqués entre les différents sites – pour ces fiches produits des redirections 301 fiches à fiches ont été réalisées
ou
- Rédaction de contenu unique site a site (non spinné) pour chacun des produits présents sur plusieurs sites
Les résultats
AU niveau résultats il ne faut pas s’attendre a des miracles mais le trafic moteur du site s’installe doucement mais surement sur une bonne base de mots clés longue traine (sur juillet 590 visites générées par 410 mots clés). Nous sommes fixé pour le moment sur à peu prés 60 visites / jour (et en augmentation constante depuis la mise en ligne du site). Et nous avons réussi à capitaliser un peu sur le trafic des sites parqués (20 visites /jour à un vache prés) ce qui devrait nous permettre toute de même de compter sur une base de 2400 visites/ mois. Ce n’est pas le Pérou mais avec le taux de transformation actuel – ca permet de garder la tête au dessus de l’eau et c’est déjà pas mal pour un site vieux de 3 semaines.
Nous avons gentiment commencé l’étape 2 qui consiste à construire la encore doucement mais surement la popularité et le trust du site afin de tenter d’acquérir quelques rankings génériques.
J’espère que cette petite étude de cas vous aura apporté quelques réponse – Rien de révolutionnaire dans l’approche, mais du concret et qui marche.
Cas et résultats intéressants. On peut même espérer que les semaines à venir verront l’audience croître. J’ignore toutefois si le linge de maison connaît des saisons qui risquent de perturber quelque peu l’évolution des visites.
Pourquoi avoir abandonné les sites précédents ? Si j’en crois ton article, ils continuaient à avoir un trafic supérieur à celui que tu constates sur les nouveaux sites après près d’un mois ? Le but était-il de laver la réputation de l’entreprise auprès des moteurs de recherche ?
Pour ma part, j’ai souvent rencontré un refus des prospects de rédiger du contenu frais et utile à leurs visiteurs. La plupart de gérants de boutiques en ligne préféraient créer des sites dotés de milliers de références aux présentations quasi-inexistantes, car cela leur paraissait une démarche plus intéressante pour attirer des clients, que de se limiter à une quantité moindre, mais plus ciblée, accompagnée de présentations et conseils personnalisés.
Une fois, j’ai réussi à convaincre un client à remplir des fiches de contenu unique, bien que généré automatiquement à partir de bases de données génériques dont je lui ai recommandé des sources intéressantes, afin d’en réduire les frais. Malheureusement, il s’était contenté de limiter sa démarche au strict minimum, rachetant un fichier générique des plus pauvres, un bête texte identique sur toutes les fiches, à une poignée de paramètres près. Le résultat s’était vite fait sentir : si au début, l’audience a effectivement bien grimpé, l’arrivée de Panda l’a fait pour ainsi dire disparaître des résultats de recherche.
Le contenu peut paraître cher à produire et à maintenir. Mais est-ce vrai ? Quand on est dans une boutique physique, un vendeur nous conseille, passant 5, 15, voire même 30 minutes avec le client qui lui en fait la demande. Pourquoi devrait-on passer moins de temps pour mettre en avant un produit en ligne sous prétexte que ceux-ci visitent les rayons au travers d’un écran ?
Bref, je te félicite pour l’approche, et surtout d’avoir réussi à acquérir la confiance du client au point qu’il suive tes conseils, d’autant qu’ils pouvaient paraître audacieux !
Salut Martin,
Je ne les ai pas abandonné je els ai réassigné – et non apres pénalité les sites ne faisaient pas plus de trafic que le nouveau – puisque je récupere seulement 20 visites de leur provenance par jour.
En ce qui concerne le contenu j’ai eu de la chance, le client etait ouvert a ce genre de recommendations – car a contrepied des agences précédentes et puis je l’ai tellement assomé de mauvaise nouvelles que quand on est passé au plan d’action il y a vu une sorte de rédemption – il se peut meme qu’a l’avenir ils se mettent a produire leurs propres images pour le site (reco en cours d’analyse de faisabilité).
Audacieuse – je n’irai pas jusque la – mais il faut tout de meme convaincre un client « d’achever » certains de ces sites 0- surtout qu;on ne tourne plus que sur une base de 3 sites (sur 10) dont 2 seulement sur le linge de maison
La stratégie est totalement clean, j’aime bien l’approche et je vais faire un petit test dans ce sens, par contre, je me permettrais un petit bemol dans le sens ou ce n’est pas à proprement dit une sortie de pénalité penguin ou panda, mais une solution pour remonter un biz après une pénalité difficile (ou impossible) à surmonter. Il n’en reste pas moins une méthode « parfaite » pour repartir.
Tu décrits en fait la mise en place d’un site normal, donc j’imagine que tu penses qu’il est quasi impossible de sortir d’une pénalité ?
On en revient à une stratégie que j’ai mis en place sur une de mes activités : le double site. : 2 sites différents dans le contenu avec une stratégie de réf différente en espérant qu’en cas de sanction à venir et/ou nouveaux types de filtres, un des 2 reste en place => lourd et chronophage, mais pas trouvé mieux pour éviter une catastrophe économique …
>> avec redirection en meta refresh + liens Javascript
les liens du meta refresh / javascript sont sur la Home du nouveau site ou sur des pages ?
Hello Julien,
Tu m’intéresses beaucoup, là : je viens tout juste de récupérer un site qui a été vraisemblablement sandboxé.
J’essaie de comprendre, mais n’en suis qu’au début.
Par contre, filtre/pénalité… c’est quoi la différence (ou plutôt qu’est-ce qui te fait dire que c’est l’un plutôt que l’autre) ?
Pas facile de faire une 301 vers un nouveau nom de domaine lorsque l’actuel est la marque du client…
Intéressant les Meta refresh pour ne pas transmettre de pénalité, ayant fait une 301 sur un site pénalisé c’est vrai que j’ai du mal à me positionner sur mes anciens mots clés. Mais le site en question à récupérer pour l’instant la moitié de son trafic naturel qui avait fait une chute de -95 % du jour au lendemain…
Merci pour le partage de ce cas pratique 🙂
‘tain, je m’exprime comme un manche !
En fait, ma question c’est surtout de savoir si tu as un autre indicateur que les courbes à proprement parler ?
J’avoue être un peu déçue, j’espérais que tu allais nous expliquer comment sortir un domaine de sa pénalité. Repartir sur un nouveau nom de domaine n’est pas possible pour tout le monde, surtout quand il s’agit d’une marque, et du coup, ben, je reste sur ma faim. Reste la possibilité de prendre la marque avec une extension différente….
Pour le reste, tu as bien vu, les fondamentaux doivent être respectés !
ps : je n’aime pas la canonical, je trouve que c’est un peu la solution de facilité, as-tu eu de bons résultats avec cette balise ? N’était-il pas possible d’avoir une architecture plus saine ?
Salut!
Bel exemple.
L’un de mes clients a on site quasi-dédoublé (voire triplé et + pour certaines pages), en plus de pages foireuses générées dynamiquement, le tout à cause d’un développement mal adapté : mis sur le fait accompli et malgré moult demandes ignorées, je n’ai malheureusement aucun moyen d’agir sur le code si ce n’est jouer un peu avec le contenu, quelques liens internes, les balises metas principales (mais pas la canonical!) … et motiver le service de production de la boîte à remodeler certaines offres.
Malgré tout, pas de sanctions apparentes pinguinpandanesques, mais, comme je l’ai signalé ici et ailleurs, quand je vois la stratégie des comparateurs de produits, je me dis que ce n’est pas surprenant, car j’en ai vu bondir ces derniers temps avec des pages plutôt répétitives et sans contenu (d’ailleurs à ce titre, tu as mis en place des pages à facettes en déclinant – si j’ai bien compris – les pages produits d’une marque en fonctions de multiples paramètres : as tu géré également la duplication interne à ce niveau que cette multiplication des pages entraîne?)
Bref, à ce jour, la présence de grosses quantité de backlinks foireux demeure le plus dangereux, en tout cas bien plus que la duplication des contenus en interne ou en externe. La stratégie de repartir de zéro dans ce cas, est effectivement sans doute la plus efficace si on ne peux supprimer les backlinks et que Google ne garantie pas une réévaluation rapide du site. C’est sans doute dramatique, mais d’un côté, cela permet de repartir sur des bases saines tellles celles que tu as mis en place.
Quand tu parles de descriptions uniques sur la base « “monsite.com est la source en ligne pour l’achat de “Size” “product type”. Trouver les meilleurs “Color” “type” “Style” “size” “product type” from “brand” sur monsite.com”, c’est pour la méta ou la description dans le contenu ?
Je suis du même avis que Labisse, malheureusement, tu n’as pas échappé aux filtres, tu as juste remis les choses aux propres à côté et relancé l’aventure.
Toutefois cela montre qu’un travail plus réfléchi permet de se positionner en douceur et plus pertinemment.
Belle analyse et bonne initiative pour remonter au plus vite. Comme dit Labisse, pas de déblocage pour sortir le site de la pénalité. Repartir sur un nouveau NDD est souvent le seul recours pour espérer limiter la casse à court terme.
Très bon cas d’école qui à le mérite de redonner confiance dans la bonne et surtout intelligente optimisation interne.
Savoir faire le bon mix entre optimisation et suroptimisation est vraiment devenu un enjeu capital.
Le contenu est ROI => c’est de plus en plus vrai aujourd’hui et je pense aussi que c’est le frein principal pour un client : arriver à raconter parfois la même chose mais différemment. Payer un inconnu pour qu’il écrive du contenu sur son secteur d’activité.
Il ne comprenne pas toujours l’importance d’un contenu unique et attrayant, pour eux s’il y a les infos primordiale c’est bon, le fait de se mettre à la place du client il s’en foute un peu.
Le plus dur pour nous est donc de faire comprendre les enjeux stratégique du seo et ces répercutions sur leur chiffre d’affaire, généralement là ils ont un déclique et nous écoute un peu plus sinon c’est sans espoir.
Clair et net !
Je vois pas mal de potes qui n’ont pas besoin de GG pour se prendre les pieds dans le tapis des boutiques en ligne –> DC… mais c’est une autre histoire 😉
Lejuge j’aime qd tu parles techniques SEO et non de polémiques stériles (…)
Encore ! 😉
Hello hello,
Je viens de lire les commentaires de l’article (l’article en lui-même, je l’ai lu cette nuit, tard, décalage horaire oblige). Tu fais en tout cas un retour extrêmement intéressant sur une stratégie pour aider une affaire (et là on parle bien pour une fois d’une société, et pas seulement d’un site internet, sa devanture) à survivre à une pénalité Google.
Une stratégie qui sur le long terme sera bénéfique, j’en suis plus que persuadé.
Du coup, si tu as une minute, n’hésite pas à lire ce que j’ai rédigé sur mon expérience avec une 301 après Penguin : http://www.betrashseo.com/la-fabuleuse-histoire-dune-301-apres-pinguin/
Expérience très intéressante, ce qui est bon c’est que finalement toutes les techniques de bases fonctionnent et continueront de fonctionner (on peut l’espérer) alors après est-il toujours tellement pertinent d’utiliser des techniques de ninjas pour au final : ne pas être sur de la pérennité de son business, devoir tout recommencer lors de l’application du prochain filtre Google.
Je m’oriente de plus en plus vers cette optique de lancer plusieurs sites en parallèle et de leur laisser bien plus de temps pour se mettre en place que ce que je pouvais faire jusqu’à présent … c’est plus long mais c’est plus sur.
@Labisse
Oui, c’est pas faux – je parlais plus dans le sens business que site pur.
@Littlebuzz
Il aurait peut être été possible de faire autrement – mais cela aurai été plus risqué pour le client – dans ce cas la politique était ZERO risque. De plus vu le nombre de liens créé par les blast (400,000 sur le site principal) il m’était impossible de « noyer » les mauvais lien avec des bons. Le changement de domaine était indispensable.
@n/a
La meta refresh se trouve sur la home des sites qu’on a parké
@Numastick
Les symptômes d’une pénalité sont bien plus rapide et violent – une pénalité créée une « cassure » nette dans ton trafic alors qu’un filtre se détecte sur une baisse moins rapide mais constante. Autres indicateurs ma foi – pour une pénalité on a perte de PR, perte soudaine de rankings (d’uh !), pour un filtre c’est plus une certaine inefficacité des actions menées sur le site même sur des mots clés de 3e zone hyper facile. (Tu auras l’impression de bosser dans le vent)
@Julien
J’en ai discuté longtemps de cette redirection (au passage Merci @Labisse avec qui nous avons eu des discussions très enrichissantes) et j’en suis arrivé a la conclusion que sur une 301 c’était possible de transmettre la pénalité (soupconnée Penguin) – En ce qui concerne le NDD ca a été relativement facile finalement dans la mesure ou le client avait plusieurs sites – de plus on a pas fait de 301 de domaine a domaine – du coup si GG nous sort un tool de désaveu de liens je pourrais peut être sauver les vieux NDD et les recycler plus tard.
@Marie
Oui désolé je me suis peut être mal exprimé a la base – comme je le dis a @Labisse je parlais plus en termes de site / business et moins de site / site.
Pour la canonical pour le moment j’ai de très bon résultats – j’avais pensé a mettre des 301 mais c’était vraiment lourd a mettre en place déjà et le serveur est un peu capricieux, si tu lui fait trop de requêtes il te plante et la compagnie te suspend ton compte … donc je suis allé au plus simple – mais ca marche très bien pour le moment. Impossible de changer l’architecture – le client était inflexible sur la navigation de son site.
@Fred
Je ne sais pas si on se comprend bien – la navigation sur le site se fait par ajout successifs de paramètres pour t’amener jusqu’à la fiche produits – le but du jeu était d’avoir des titres et descriptions + un minimum de texte qui se crée – et oui l’architecture empêche la création de contenu dupliqué si on passe par le chemin « param1 + param2 » ou « param 2+ param1 »
@Alsaseo
Description et contenu dans une certaines mesure (mix partie perso et code)
@Aurélien
Vrai – mais pour le coup le changement de NDD était nécessaire – trop de liens pouraves venant de trop de sources et aucun accès a rien –
@neoxys
C’était le exactement le but de la stratégie
@Mikiweb
Le client a bien compris l’importance du contenu et surtout l’importance d’absence de contenu dupliqué – il est même possible que la suppression du DC entre les sites aide a sortir les sites que nous avons gardé un peu hors de l’ornière – y’aura plus qu’a désavouer des liens ensuite.
@Phil
ON peut pas se prendre la tête tout le temps non plus 😉
@Betrash
Oui stratégie pour aider un business – j’aurais du être plus précis sur ce point – « blood and Guts »
@Xavier
Pour le coup c’est totalement l’inverse de ce que j’ai mis en place – puisque j’ai fait réduire le nombre de site de 10 à 3
Merci pour ce retour.
Donc en gros tu reprends le référencement à 0. C’est une entreprise, tu ne peux pas te permettre de tenter des techniques qui aurait pu peut être permis de sortir de la pénalité en gardant un peu de ref. Mais si ca aurait été un site à toi, ou un test, tu aurais tenté quoi pour sortir des griffes de Google tout en essayant de conserver l’optimisation ?
Merci pour ce retour d’expérience. Avec le billet de Be Trash SEO, ca fait de la lecture intéressante en 2 jours ^^
Très bon article, à voir comment ça évolue dans les prochaines semaines/mois..
Concernant la balise canonical, pour avoir travaillé sur pas mal de projets ecommerce, c’est indispensable : le produit va être accessible via pleins d’URLs différentes :
-accueil/produit
-catégorie1/produit
-categorie1/cat2/produit
-cat3/produit
-…
Via des redirections 301, ça devient vite très très très lourd, alors que les canonical peuvent se mettre en place automatiquement sur des CMS comme Magento.
Mais du coup, si je comprends bien, au lieu d’avoir 10 sites, le client n’en a plus qu’un ? Est-ce que ça ne remet pas « trop » en cause sa stratégie ? (à priori organiser sa propre concurrence)
A terme, est-ce que tu prévois quand même de remettre en place ces autres sites ?
Il faut reconnaitre que quand on voit d’où tu es reparti quand tu as pris les choses en main, l’expression « SEO médiocres » est vraiment très polie! :-). C’est en tout cas très enrichissant pour moi d’avoir pu profiter de tes explications et du détail de ton cheminement pour redresser la pente.
@lereferenceur
Avec le billet de Betrash tu as les 2 cotes de la barriere effectivement – et oui ca aurait été mon site – j’aurais mis exactement ce que Betrash a mis en place (mais bon mon site a moi a la base il autait pas été penalisé aussi)
@Fred
Si ca a remis en casue sa strategie – mais bon j’ai reussi a le convaincre du bienfondé de la mienne de stratégie – et comme ca paye pour le moment
@Claude
Merci
Bien vu Martin, en effet un vendeur en boutique physique passe parfois
30mn à expliquer un produit, pourquoi n’en serait il pas de même sur le web, d’autant qu’une fois la fiche proprement rédigée on y revient pas souvent (contrairement au vendeur en boutique qui doit rabacher la même chose pour chaque client).
On à trop tendance à croire que le E commerce c’est juste : « je fais une boutique en ligne et ça va vendre tout seul », c’est loin d’être le cas.
Salut Julien,
Je te remercie pour ton retour.
Ton article a le mérite de présenter une piste et un risque calculé pour éviter de rejouer le même jeu dans quelques mois ou jamais.
Mais pour une entreprise on ne peut pas laisser la place au doute.
A titre perso, j’ai aussi un money site qui est tombé avec mon ami le manchot et depuis je n’ai toujours pas réussi à prendre de décision, 301 vers un nouveau ndd, réutilisation des textes sur un autre domaine pour faire un blog et exploiter les rares expressions ou le site rank encore pour continuer à conserver cette micro rentabilité ou tout simplement balayer l’ensemble, repartir sur du neuf, dire adieu aux 80 textes uniques de 300 à 500 mots sur une thématique qui est définitivement pas b**dante du tout, dire adieu de façon définitive à l’ancienne position qu’on pourrait peut être retrouver…
Bref, ta solution a au moins le mérite de trancher dans le vif et de repartir sur des bases clean. Après quand je lis l’article de Betrash et quand je vois que des grands Messieurs du ref côté obscure ont misé sur une 301, ça me dit aussi, mais travailler 6 mois sur un truc propre pour se faire éjecter à cause d’une vieille redirection, c’est moins motivant 😀
Oui c’est un peu un retour à la case départ, bien réinitialisé, mais il faut dire que les sites de ton client n’avaient pas beaucoup de trafic (je ne vois d’ailleurs pas l’intérêt d’avoir 10 sites sur le même bizness). Pour le plus gros, 1500 visites par semaines, ça ne fait guère que 214 visites/jour, donc tu peux espérer un retour assez rapide à un tel score, mais imagine un site qui fait 1500 visites/jour, là, il te faudra des mois (voir des années) pour arriver de nouveau à ce trafic.
Dans ce cas, tu n’as pas d’autres solution que de sortir le site des pénalités google.
Bonjour Julien,
Cet article n’est pas celui qui sauvera tout le monde d’une pénalité, mais il résume bien la chose, si on a joué avec le feu, soit on arrive à l’éteindre et reconstruire sur la zone sinistrée, soit les dégats sont tellement « graves » qu’il faut reconstruire ailleurs.
Les joies de l’algorithme de Google…
Merci pour l’article et à la prochaine !
Marie
Merci pour ce retour d’expérience. Avec le billet de Be Trash SEO, ca fait de la lecture intéressante en 2 jours.
Article pertinent, je n’avais pas entendu parler de la communauté S.E.O.
Edit – David
Bon alors deja ton commentaire c’est de la merde a la base – mais en plus j’ai la nette impression que tu me prend pour une truffe retardée mentale – La communauté « S.E.O » tu la connais tres bien puisque tu ocmmentes deja sur d’autres blog notamment celui de Vincent Jamin. Toi qui es un « vieux de la vielle » tu devrais etre un peu plus sage
Merci pour ce retour d’expérience. Un excellent cas d’école en tout cas, et c’est très instructif. Moi aussi, j’ai été dernièrement pénalisé, mais pas pour la même raison : j’ai racheté un site, j’ai crée plusieurs centaines de nouvelles pages, abandonner la quasi-majeure partie des anciennes pages, soumis le nouveau sitemap.xml à google, mais jusqu’à maintenant, il continue d’indexer les anciennes pages. Je suis en train de m’organiser pour les déindexer une par une sur google (avec le robots.txt et google webmaster tools) mais j’aurai du le faire dès le lancement…
Très bon billet. Au moins cela montre une théorie pour sortir d’une pénalité ou d’un filtre. J’ai entendu dire qu’avoir un lien depuis un site à fort PR (+PR 7/8). Pouvais sortir d’une pénalité du genre Penguin. Mais bon, cette information est à prendre avec les pincettes car il est évident qu’il faut traiter le sujet au cas par cas.
Il est toujours intéressant de comparer les différentes méthodes pour se sortir de la pénalité du fichu Pingouin. C’est surtout sympa de la part du juge de nous faire étalage de sa méthodologie et de ne pas garder ça pour lui, comme quoi le monde du S.E.O est moins pourri que certains pourrais le croire !
En tout cas l’exemple montre encore et toujours que malgré tout les efforts que l’on pourra faire, il y aura toujours des référenceurs qui bossent comme des gougnafiers qui ne font que détruire la réputation de notre métier que l’on a déjà tant de mal à expliquer à notre propre entourage !!
Bref le travail du SEO sortant peu à peu de l’ombre, on peut espérer que les entreprises apprendront qu’engager un bon SEO ne se fait pas sur la simple base d’un tarif au ras des pâquerettes…
Une bonne présentation de stratégie pour sortir d’une mauvaise pénalité. Dans tous les cas, cet exemple montre bien l’importance d’un travail de référencement sein et maîtrisé ! Le plus dur a dû être de convaincre le client d’une nouvelle prestation de SEO…
Intéressant ton cas de figure.
J’aurai bien aimé savoir comment tu aurais fait si le client avait insisté pour garder le même domaine.
Dernier point : pour les sites parké, la redirection avec meta refreh a bien fonctionné ? Est-ce qu’un lien vers le nouveau domaine avec un nofollow dessus n’aurait pas été un bon équivalent ?
Salut Ramenos
Pour le changement de domaine, je lui ai pas trop laissé le choix au client – je lui ait dit – « z’etes dans la m*rde jusqu’au nasau l’ami – y’a pas d’autres solution »
La redirection avec la meta refresh est surtout pour renvoyer les internautes et nous avons aussi mis un lien javascript au cas ou ca raffraichisse pas – c’etait pas pour les moteurs pour le coup mais plus pour capitaliser sur le traffic restant
Oh! Bel article! Pourquoi je ne l’ai pas lu avant! Peut-être, j’ai eu la chance de ne pas tomber dans le trou de GG. Je vais tweeter ce billet qui peut aider pas mal de SEO
‘tain, je m’exprime comme un manche !
En fait, ma question c’est surtout de savoir si tu as un autre indicateur que les courbes à proprement parler ?
Très bon billet.
Mon client à deux sites et le trafic à chuté le 6 octobre 2012 pour le premier sur les plus importantes requêtes qui concerne son activité. Il est presque impossible d’apercevoir la home, par contre les pages du blog apparaissent toujours, mais la situation va en se dégradant. Il ne reste plus que Google Adresse et Adwords pour générer du trafique.
Pour le second, j’ai enregistré une baisse en avril 2012 est la situation ce dégrade également. Même phénomène les pages du blog restent positionné et la home difficilement trouvable.
Je tiens à signaler que les mêmes template WordPress ont été utilisés pour les deux sites et pour des villes différentes, les contenus sont uniques par contre l’architecture reste la même, les sites dates de décembre 2011 et juin 2012.
– J’ai plusieurs questions :
1) Comment être certains d’une pénalité Google, avant de tout casser ?
2) Je compte changé de CMS (joomla) pour les deux sites, avec des templates différents dans un premier temps.
3) Dans l’éventualité ou le client accepte de repartir de zéro, est-il possible d’utiliser Google analytiques, google adresse et adwords avec le compte google actuel, ou faut-il en créer un nouveau, avec deux nouveaux nom de domaines. (En ce qui concerne le contenu est-il préférable de les faire réécrire).
Merci à tous pour votre aide et conseil.
Il ressort de ton analyse et des commentaires que le contenu est la solution quasiment à tous les problèmes: et effectivement dans la vraie vie quand son contenu marketing ou son discours de marque sont aussi pauvres qu’un panda maigre comme une tige de bambou, alors il faut se dire qu’une pénalité GG, c’est finalement un mal pour un bien, afin de tout recommencer en mieux.
J’ai déjà subit les foudres de notre ami pingouin il y a quelques temps et j’ai été obligé de tout revoir, du coup je me suis aperçu que j’avais un peu de duplicate et que certaines de mes ancres se répétaient trop. Je m’en suis sorti au bout de quelques mois en modifiant également ma balise titre. Beaucoup de travail et de la patience…
Bonne analyse. l’étape pour sortir d’une pénalité est toujours fastidieux. j’en ai vu beaucoup de cas, manuelle ou algorithmique mais ce qui est sûr c’est que Google prend désormais en compte l’historique du site et de ne pas se fier à la récolte des liens sur GWT, il faut chercher bien loin via des outils beaucoup plus cohérent (majestic, ahrefs…)et récemment de passer le site en https => j’ai fait le test sur le site avec le retour d’expérience pour un wordpress https://www.sitepenalise.fr/passer-blog-wordpress-en-https/