Le NSEO par ricochet

      37 commentaires sur Le NSEO par ricochet

Ouuuh mon dieu mais qu’il a mis du temps à sortir cet article… anyway. Donc pour ceux qui me suivent sur twitter, vous avez surement vu un tweet a moi qui menaçait des chinois d’explosion de genoux à coups de planche, peut être certains m’ont vu insulter Yann Decoopman dans ce fil  (et il m’a bloqué depuis… comme quoi – je confirme les gens qui scrapent des sites pour les injecter ailleurs c’est des gros encul*s!), le sujet a été en partie abordé par Paul  dans le blab de Laurent d’aujourd’hui (17 février) et enfin j’avais aussi dans un coin de ma tête le fait que je voulais adresser la question du désaveu avec Manu – depuis son podcast chez Laurent – parce que j’étais pas d’accord du tout avec ce qui s’était dit au sujet du désaveu et que c’est en rapport avec la situation actuelle.

Je sais c’est décousu mais ça va faire sens promis !

Donc qu’est ce qui se passe et comment c’est en rapport avec tout ce que je nomme au-dessus !

Note d’avant article : Si les boulets du SQE (« Search Quality Evaluation » – chez Google) pouvait faire en sorte de répondre au post que je leur ai mis sur le forum il y a 6 mois de cela – ou me bipper histoire de discuter de la situation ?! Honnête ce serait cool !

Non parce que pour balancer des réponses vaseuses à des questions du type :« oui j’ai une title de 70 caractères ?? C’est bon ? » La y’a du monde ! T’as une réponse de 3 pages dans les 5 minutes avec liens vers la source et tout! Mais si on doit se frotter à un vrai souci SEO qui pique, les Zineb, Courson et compagnie ils se vaporisent ! Plus personne ! Branleurs va!

La situation

Alors, depuis Mars / Avril dernier je dirais à peu près, j’ai une bande de chinois qui scrappent le contenu de mes sites. Alors ça se passe soit directement sur mes sites, soit en passant par la wayback machine… c’est selon. Ensuite ces petits malins vont injecter mon contenu sur des sites hackés aux quatre coins de la planète (en cloaké) et cloakent une redirection 302 qui renvoient les internautes vers des sites qui vendent des fausses Ray-bans.

Dans l’absolu j’ai aussi quelques glandus dont 1 en France : Semiodata si tu me lis. Un jour je vais te trouver et je te promets que ce jour-là tu vas sentir profondément dans ton fondement toutes les fois où je suis tombé sur un de tes domaines moisi qui me disait Joyeux noël !

Mais je m’égare… J’anticipe…

Bref ces autres glandus, disais-je, font exactement la même chose que les chinois susnommés mais plutôt pour générer du trafic sur leurs sites afin, je suppose, de faire tourner la machine à Adsense ou a impression de bannières.

Je me retrouve donc actuellement avec je dirais entre 3,000 et 6,000 domaines qui reprennent tout ou partie des contenus de mes sites. Comme je le disais précédemment ces domaines se trouvent aux 4 coins, j’ai un peu de tout au niveau extension, du .com, .net, .cn, .pl, .it (les italiens sont nuls en sécurité internet) du .fr, j’ai même des extensions que je ne connaissaient pas. Bonjour le duplicate content !

Ensuite, comme un bonheur n’arrive jamais seul je dirais qu’entre 60% et 70% de ces sites sont flagué comme hacké par Google! Et top du top ils me lient tous ! Enfin Google pense qu’ils me lient tous ! Ah ah ah ah ah ah ! C’est pas hilarant ça !??? Tiens je vous donne même une idée de ce à quoi cela ressemble ! Vous allez voir c’est beau !

liens-nseo

Vous voyez la courbe la comment elle grimpe depuis novembre !!?? Je sais déjà à quel point je vais m’amuser sur les 2 prochains mois ! Cool ??? Ou pas Cool ???!

Pourquoi je dis NSEO par ricochet

Bah juste parce qu’il n’y a pas de « mauvaise » intention derrière (insistez sur les guillemets). Les mecs ils n’essaient pas de couler mon site, ils essaient de profiter du trafic longue traine que je suis sensé avoir pour grappiller un peu de blé. Ça reste des gros encul*s ! Attention ! Et je souhaite que leurs enfants aient des dents pourries, mauvaise haleine, les pieds poilus, les yeux qui louchent et les genoux cagneux ! On est d’accord le dessus ! Mais ils ne veulent pas descendre mon site, le fait que mon site en prenne plein la poire c’est un effet secondaire de leurs campagnes dégueu.

Quel est le problème

C’est très simple ça me crée 2 problèmes MAJEURS avec un grand M :

1 – DUPLICATE CONTENT:

MON SITE EST LEGION !!! MOUAAAAAAAAHAHAHAHAHAH !

Le contenu de mes pages se retrouve de partout sur le web, sur des sites flagués comme hackés et qui n’ont dans 99.99% des cas aucun mais alors AUCUN rapport avec ma thématique. Pêle-mêle on trouvera des sites d’artisans, des associations sportives, des restaurants, des blogs, des avocats, un nombre Incroyable de petites agences web et SEO – la moitié des incompétents du web du monde ont mon contenu sur leurs sites – et tous leurs clients avec ! Voyez le tableau !?? Moi le « Google quality Update » je l’ai pris …. Comment dire …. Pleine tronche ! Facon gifle à la Obélix voyez ??!! Cheveux en l’air, tête qui vrille! Chaussure qui volent et tout ! La totale ! Il m’a pas loupé le machin ! A sec !

2 – PROFILS DE LIENS

Bah je vous laisse ré-admirer le graph au-dessus hein ! Il est tout pourri mon profile de liens ! J’ai gagné près de 2,000 nouveaux domaines référent en moins d’un an! Toute les 2 semaines je l’update mon fichier de désaveu. C’est même plus à la pelle que je les débaroule les sites c’est au bulldozer ! Par camion entier que je les dézingue !

Tu vois Manu quand tu dis il suffit de créer des bons liens pour compenser, pour ton petit biz’ sympathique : OK, peut-être, pourquoi pas je veux dire je suis ouvert au débat…. Et je suis persuadé qu’il y a surement beaucoup de choses à faire pour redresser la situation. La pour le coup non ! On vient de passer à un autre niveau vois-tu… c’est par poignées de 100 toutes les semaines que j’en reçois des liens moisis en ce moment et le rythme augmente ! Avant ils n’étaient pas chaud les spammeurs chinois ! Maintenant qu’ils se sont dégourdis les muscles… ils vont envoyer du gros.

Et malheureusement les vrais bons liens, tu ne peux pas les créer aussi vite qu’eux créent les mauvais. Ce n’est pas possible Et puis, les bons liens si tu les crée trop vite ils sont plus aussi bon…. Donc désaveu.

Et encore – à ce niveau-là je me plains pas trop justement parce qu’a la base j’avais une popularité en béton armé! J’ose même pas imaginer ou j’en serai si je n’avais pas la formule 1 que j’ai entre les mains… je serais au fin fond du trou du c*l des SERPS … littéralement !

Quel Impact

Ah ben depuis Mai, si tu cumule filtre du Quality update et le fait que maintenant dans mon business même si t’es 2e t’es en dessous du fold (Promis ! Tu squattes en 2e position et t’es pas visible à l’écran ! merci GG !) – j’ai pris du -40% de trafic et peu ou prou la même chose en revenu. Je chiffre les pertes en millions de dollars là. Le plus gros des pertes se situe sur des mots clés moyenne et longue traine je dirais et plutôt sur la partie « Lunettes » – dans la mesure où ce sont surtout les contenu lunettes qui sont copiés.

Qu’est-ce qu’on peut faire contre

Alors en 1er je l’ai déjà dit, du désaveu… massif, violent, sans pitié et au niveau des domaines. Ensuite tu fais de ton mieux pour éviter que ton site se fasse scraper. Mais ce n’est pas facile déjà il n’y a pas beaucoup de solutions, et aucune d’entre elle est 100% efficace. Le seul truc que tu peux faire vraiment c’est leur rendre la tâche plus difficile pour qu’il te lâche la grappe et aille scraper quelqu’un d’autres. Et encore comme je dis quand ils ne peuvent pas ils vont pécho les contenus sur la wayback machine.

Ensuite oui il faut construire du bon lien pour limiter les dégâts mais ça prend du temps, beaucoup beaucoup beaucoup de temps !

Enfin il faut revoir les contenus du site mais quand tu es un gros site e-commerce et que tes copywriters sont déjà à balle rien que pour rédiger les descriptions des nouveaux produits et bien ça prend du temps ca aussi, beaucoup de temps. Et je ne parle même pas des budgets

0 Partages

37 thoughts on “Le NSEO par ricochet

  1. Laurent Bourrelly

    Il me semble bien avoir précis que je me plie à l’utilisation du désaveu dans certains cas.
    Si j’étais dans ton cas, c’est évident que tu dois utiliser toutes les options possibles.
    Tout comme c’est frustrant d’attendre une réponse de Google, alors que le blog de mode a obtenu gain de cause, simplement parce qu’il a fait du bruit.
    Alors, il faut se lancer dans le cybermilitantisme pour attirer l’attention de quelqu’un chez Google ?
    AMHA va plutôt harceler ceux de Dublin au lieu de Zürich pour obtenir un interlocuteur.

    C’est chaud ton histoire, mais ce n’est pas parce que des millions sont en jeu que ce n’est pas aussi capital pour le petit ecommerce ou éditeur.

    Cela me crève le coeur de le dire, mais il faut sérieusement penser à être capable de faire tourner un business sans SEO.
    Il va falloir prendre le SEO comme pourboire et mettre des alarmes si ça dépasse 10% du CA.
    La victoire ultime de Google est que nous devront être forcé de payer et de plus en plus.
    Ce n’est pas la mort du SEO pour autant, mais si le business ne peut pas vivre sans SEO, il va falloir commencer à se poser des questions.

    Reply
    1. Julien Post author

      @Laurent – si ma boite s’en sort bien c’est que seulement 15% du CA passe par le SEO – imagine pour une boite qui repose sur l’organique??? le gars il va se pendre

      Reply
  2. Sylvain Richard

    Tu sais bien que le NSEO n’existe pas Julien. L’algo est bien trop balaise pour ça ! Google maitrise tout ça, dors tranquille…

    @ Laurent
    Tu as raison sur le fond. Mais dans la pratique c’est souvent moins évident. Je pense notamment à de petits e-commerçants.

    Reply
  3. Matthieu HAMEL

    C’est fou, j’ai vraiment l’impression d’avoir écrit cet article. Je bosse également chez l’annonceur et moi aussi chez un opticien en ligne. Je sais ce que c’est le désaveu de liens tous les mois… Ils sont vraiment rapide à tisser leurs putain de toiles ces chinois. A croire qu’ils ont des actions Google. Si tu as trouvé une solution, préviens-moi ! Si tu veux partager des techniques, mon site n’est pas présent au Canada. Libre à toi de me contacter.

    Reply
  4. Xavier

    En fait, c’est plutôt un outil d’aveux de lien qu’il te faut maintenant

    Pour la protection, j’imagine que c’est très compliqué dans ton cas, mais je me souviens d’un truc à la Rudy (ou Paul je ne sais plus)… tu donnes le vrai texte au bot, et tu donne à l’internaute un texte complètement lisible, mais en remplaçant certaine lettres par des caractères occidentaux…

    Contenu dupliqués en masse, adwords & qui ne laisse plus de place dans le fold, je suis d’accord avec Laurent, le SEO ne doit être qu’un levier, et il ne faut pas/plus baser tout son biz la dessus.

    Reply
    1. Julien Post author

      Salut Xavier – oui je connais le truc (c’est celui de Kévin ;)) et non je peux pas faire ca chez moi

      Reply
  5. Rodrigue

    J’ai l’impression que cette thématique intéresse pas mal de monde. Le site de lunette des clients quand j’étais en agence a eu la même mésaventure. Heureusement il s’en est sorti mais en effet la perte était énorme (à son échelle bien sûr).

    Claire qu’il ne faut PLUS baser l’acquisition de trafic (surtout de vente) sur le SEO, il faut viser tout les canaux possible.

    Reply
    1. Julien Post author

      @rodrigue

      Les marges dans l’optique sont enormes c’est pour ca que ca interesse du monde – une paire de fausse rayban a 40 euros les chinois en produisent des a 50 cts… dans ce genre la.

      Reply
  6. Boris

    Pour la re-redaction d’article, du bon content spinning c pas possible ? On perd un peu en qualité mais c facilement possible a regenerer pour éviter d’etre tout le temps en duplicate. C théorique, je ne sais pas si ca peut marcher niveau SEO.

    Reply
  7. Laurent Bourrelly

    Petite précision sur ma citation.

    1/ J’ai dit qu’il fallait commencer à y penser

    2/ En priorité, je me mets au niveau cas cité dans l’article.
    Il s’agit d’énormes business, qui se mettent en danger à trop miser sur le SEO.
    J’ai des cas similaires et je n’avais pas en tête le « petit » e-commerçant.

    3/ Cela dit, vous voyez bien que le problème commence à se poser, même pour le « petit » e-commerçant.
    Je ne fais que remarquer la triste réalité.

    Reply
    1. Julien Post author

      @Laurent – on est d’accord apres – on ne se met pas trop en dager avec le SEO chez moi – on préfererait faire plus de biz’ en SEO / organique arce que c’est moins cher – mais le coeur de notre business est toujours amener par les campagnes de pub et le trafic direct

      Reply
  8. Manu

    Yo Le Muscle,

    T’emmerdes pas trop,
    prends un domaine trusté et envois des 301 vers de la page profonde.?

    Nan je déconne bien sur, ce qui m’ intéresserait pour aller plus loin sur l’analyse , et notamment de croiser les datas de tes concurrents. A savoir si c’est de la vague de liens auto ou si c’est justement un de tes concurrents qui envoi ça. Sur des théma type « loterie » j’ ai déja vu des agregateurs , fake moteur de recherche, qui t’ envoient des links en scrappant les SERP GG.

    J’ai même poussé le vice [parano] en me disant que de l’ autre coté de la barrière, je ferais peut être ce type de sites.

    Pourquoi ?
    > Toujours pour vérifier le comportement des Webmasters
    > Pour bousiller le trafic SEO et l’ orienter sur Adwords .

    Oui j’ avoue, c’est vicieux.

    Reply
    1. Julien Post author

      @Manu

      A priori non ce n’est pas un concurrent – certains de mes « concurrents » (en fait ce sont des companies soeurs qui appartiennent a la meme maison mere) sont touchés mais moins que moi dans la mesure ou leurs CMS maison est moins mal foutu (que le mien) et donc que le crawl/scrap est plus compliqué chez eux. De ce que j’ai pu voir c’est une probleme systémique dans le monde de l’optique – on se fait touts plus ou moins attaquer et les mecs passe d’un site a l’autre en fonction de la difficulté a crawler – en ce moment c’est moi – des que j’aurai mis en place la protection contre le scrap ils passeront a un autre.

      Reply
  9. Thomas Cubel

    Hello,

    Je compatis à ta douleur, j’ai passé 1 bon mois à désavouer près de 10k domaines spammy, hackés qui pointaient sur 70 sites différents, eux mêmes hackés et bourrés de contenus de merde faisant des BL de partout entre les sites. Niveau cloisonnement, c’était compliqué.
    Niveau plan d’action, désaveu massif, désindexation des contenus et suppression, signalement et suppression de pénalités manuelles. On a aussi changé les serveurs et on a fait des petits groupes en fonction de l’importance et de la technologie des sites. J’aurais préféré autre chose, mais c’est déjà ça.
    Bon courage !

    Reply
  10. DeepSEO

    @xavier,

    exact cette technique fonctionne. De mémoire c’est @seoblackout qui en avait parlé sur un post. Nous avons eu le même problème sur la thématique des montres Suisses. Problèmes pris très au sérieux ici.

    Reply
  11. Paul Romano

    90% du temps les adresses IP utilisées pour scraper viennent d’asie, Une bonne solution à ce type de problème que j’utilise et que je recommande lorsque le business le permet est de bannir les plages d’adresses chinoises au niveau d’IPTABLES.

    ton serveur deviendra invisible aux yeux de la chine

    Paul

    Reply
  12. Arthur Cassarin-Grand

    Salut Julien,

    Bon courage pour gérer ce merdier…
    Pour Wayback machnine, as-tu essayé de bloquer le bot ia_archiver dans le robots.txt ?
    Ton site disparaîtrait avec le temps de leurs archives, ça ferait une source de moins à scrapper. Pareil, as-tu utilisé un CDN style CloudFlare qui offre une protection contre le scrap à ma connaissance ?

    J’imagine que tu y as sans doute déjà pensé, mais on sait jamais 🙂

    Reply
  13. Emmanuelle

    Vache de vache, de bons moments en perspective !
    Bon courage en tout cas, je sais pas trop quoi dire d’autre en fait… 🙁
    Juste un petit message de soutien, quoi <3

    Reply
  14. Nathalie

    +1 avec semiodata, 1 mois qu’il m’envoie des liens avec pleins de domaines différents qui redirigent sur semiodata… je crois qu’il est tombé cette semaine, il n’est même plus en ligne.
    Bon courage en tout cas, j’ai eu quelques cas de DC que j’ai pu régler directement avec les plagiaires sans commune mesure avec ce que tu rencontres… et puis le désaveu je crois que j’ai pas trouvé plus chiant à faire… je compatis!

    Reply
  15. Laurent

    Hello Julien

    Ce que dit Paul Romano est intéressant, quant aux IP utilisées, qu’elles proxifiées ou non.
    Je suggère une variante qui anéantit le risque NSEO :

    1. définir des zones de chalandise géographiques (pour un site qui a un public francophone en europe, c’est facile. Pour un site US qui vend aux US, facile aussi. Pour un site qui vend dans le monde entier … on va en discuter

    2. Déjà, les zones géos dites « alerte rouge », c’est facile :
    – Afrique (hors Afrique du Nord, suivant la cible des visiteurs)
    – Europe de l’Est (pareil)
    – Pays « Ruskov » (Russie, Ukraine, Azerbaïdjan, …)
    – Pays asiatiques (Chine, Inde, …)

    3. Pour toutes les IP provenant de zones géos sensibles ou rouges, on peut proposer un captcha (celui de Google par exemple, la v2 « Je ne suis pas un robot »), afin de vérifier si lors de la 1ère connexion, on est un robot ou pas.

    ça enlève une grosse grosse partie des robots.
    On peut être encore plus sioux… on peut générer une fausse page du site avec de fausses données pour que le scraper scrape comme un fou et ne se doute de rien.
    Et bien sur, ce n’est pas visible par un vrai visiteur, qui devra cliquer sur le captcha.

    4. ensuite on peut mettre des honeypot pour identifier les robots… mais ça, je présume que tu les as déjà mis en place… 🙂
    Il y a une infinité de types de honeypot pour identifier un comportement non-naturel.

    Au final, ça bloque les robots qui viennent d’IP interdites ou ayant des comportements scrapeux.

    Reply
  16. Yann

    Je suppose que dans ton cas (cf. réponse de Laurent ci-dessus- peu de marge de manœuvre pour intervenir sur le moteur du CMS utilisé en vue de complexifier les sessions de scrap), l’analyse de logs est un des seuls moyens de faire du reverse engineering : comment arrivent-ils sur le site ? quel est leur parcours ? quels contenus sont choisis en priorité ? A partir de là ça peut te permettre de mener une veille proactive pour tracer les réseaux.

    Mon approche là-dedans, c’est que comme tu le sais déjà, je déteste la position de Google qui regarde les businesses s’étriper à coup de NSEO. C’est facile, ils n’ont qu’à récolter les fichiers de désaveu : ils connaissent alors tout du plaignant (toi) et tout des attaquants (les liens désavoués). Et après ils décident d’agir, ou pas. Et ce, plus ou moins vite…

    Donc, faut-il s’en remettre entièrement et uniquement à GG ? Que peut-on faire d’autre ? A toi de voir…

    Reply
    1. Julien Post author

      @Yann

      Non mais j’attends pas que GG finisse par gerer correctement le probleme j’attends que GG me sorte du trou ou je suis depuis Mai dernier. LE crawl/scrap je travaille dessus de mon coté avec les mecs de l’infrastructure… mais encore uen fois ca prend du temps.

      Reply
  17. Ramenos

    Salut voisin,

    Une bien triste histoire que tu vis là. Effectivement, le désaveu est ta principale arme. Après, à ta place, je ne lâcherai pas l’affaire en postant sur le forum officiel Google. Au pire tu crées un nouveau post tous les 4-5 jours, ils vont bien finir par te prendre au sérieux.

    Je ne sais plus si ça marche encore mais j’avais empêché de mettre le site d’un de mes clients dans la wayback machine. Tu pourrais peut-être tenter de le faire, ça pourrait toujours réduire un peu la part des aspirateurs à contenus.

    De tête, je crois qu’il faut ajouter ça dans le robots.txt :
    User-agent: ia_archiver
    Disallow: /

    La solution pour filtrer les IP est un bon choix si tu limites ton marché à l’Amérique du Nord (je crois que c’est le cas de Clearly ?)

    Après sinon tu peux toujours te dire « non mais c’est bon, Google m’a déjà dit que le NSEO, c’est une légende, faut pas s’inquiéter »… Qu’ils sont drôles chez Google.

    Bon courage !

    Reply
  18. SylvainV

    Salut,

    Pareil, j’ai eu des soucis récent (et une bonne sueur froide) avec Semiodata. Ses sites sont blacklistés maintenant, je ne sais pas si c’est pire ou mieux du coup…

    Reply
  19. Xavier

    Une vraie galère cette histoire. Bon courage pour tous ces désaveux, et l’idée de filtrer les IP en fonction du marché semble effectivement la bonne solution.

    En plus le cas Google ne s’arrange pas avec ses 4 liens payants. Le problème du SEO devient encore plus large maintenant. Il faudra bientôt avoir des lunettes pour trouver le premier lien naturel.

    Du coup les petits E-commerçants évoqués par @Sylvain vont plus que souffrir. Pénible.

    Reply
  20. Pierre

    C’est vraiment ahurissant quand ça nous arrive ce genre de chose… J’ai déjà eu le cas sur l’un de mes blogs, et comme tu le dis : désaveu désaveu désaveu ! Tu ne vas vivre que pour le désaveu pendant une bien longue période si la situation est telle que tu la décris…
    Je me demande si il ne pourrait pas être intéressant de mettre en place un site référent permettant à Google de savoir à quel site internet appartient le contenu de base, pour pouvoir pénaliser les scrappeurs sans scrupules qui n’hésitent pas à le dupliquer…

    Reply
  21. Manu

    Re,

    Je pensais à un truc que tu n envisages pas vraiment,
    Ok le NSEO
    Ok c est peut être pas un concurrent (à priori)

    Mais si c’était réellement un concurrent, qui te bouffe des positions,
    D’un côté il taf pour ranker tes kw, donc il peut légitimement te crawler ou te faire crawler par des services (de la même manière qu’on envoie des semrush sur le domaine qu’on veut)
    De l autre côté il DC tes contenus et affaibli le trust de tes pages.
    Puis il se fend la gueule à t imaginer « perdre du temps » à désavouer tout le bordel.

    Ça ne me paraît pas incohérent t es callé depuis longtemps sur tes thema pourquoi s enmerder à réinventer la roue? Autant te brouiller les pistes non?

    À l occase Skype moi, et on envisage une contre attaque, et tu perds pas de temps à désavouer sa bouillie. Ça ferait un joli cas d’étude des actions à mener en cas de NSEO massif, en mode Jedi , côté obscur il va se faire voir chez les Turcs.

    Ciao

    Reply
    1. Julien Post author

      Salut Manu,

      Si c’est un concurrent c’est un petit qui ne vaut pas la peine que je me penche dessus et que je prenne des risques en fait. Il faudrait que je me penche sur l’explication du milieu de l’optique et notamment en ligne. Mais grosso modo pour donner les grandes lignes: dans le milieu de l’optique y’a 2 joueurs majeurs – 1 Francais (essilor) qui produit 85% des « lentilles » de lunettes et Un italien (Luxxotica) qui produit 85% des montures (toutes marques confondues hein – le mec qui me dit j’ai des ray-ban >> c’est luxxotica, oakley c’est luxxotica) ce qui fait que dans le milieu de la vente en ligne mis a part 1 ou 2 « gros » (Warby Parker, 1800 Contacts) et quelques petits rigolo (Sensee en france ou Polette qui se la joue gros mais qui en fait ne le sont pas vraiment) tous les sites appartiennent a Luxxotica ou Essilor – ou alors ce sont les sites de vente en ligne de gros retailers type Sears ou Walmart. Et tout ce beau monde a les moyens de faire chier les autres quelque chose de velu que ce soit au niveau des trademarks, des rachats de telle ou telle compagnie du refus de distribution de telle ou telle marque. Et au milieu de tout ca on a les opticiens qui arbitrent le truc en défendant leur business « offline » comme des morts de faim.

      Bref tout cela pour dire que c’est une milieu ou tout le monde se tient tellement par les bollocks les uns les autres qu’au final tout le monde a deécidé de pas trop se faire concurrence déloyale histoire de pas etre l’instigateur d’une « shitstorm » qui eclabousserait tout le monde. Donc si c’est un concurrent qui fait du NSEO sur mon site c’est pas qqn qui fait partie d’un groupe concurrent ce qui veut dire que c’est forcément un « petit » et qu c’est pas la peine que je prenne des risques. je peux tres bien l’éclater a la loyale, deja. Ensuite si je prend cher c’est pas lui le petit qui fera du business c’est un autre gros – possiblement une compagnie soeur a moi.

      Reply
  22. Smart Ranking

    Le duplicate content, ça va pardonner de moins en moins avec le temps et au fur et à mesure que Google met à jour son algo.
    Je me demande encore pourquoi certains s’enquiquinent à faire du duplicate content..

    PAS DE NOM = PAS DE LIENS

    Reply
  23. Alexandre Santoni

    Je ne tombe sur ton article que maintenant (en retour le gars). Un simple mot de courage. Je vois que certaines solutions de protection ont été donné, elle sont intéressantes.

    Il serait vraiment temps que Google se planche très sérieusement sur ce type d’action amenant du déranking ou les actions NSEO pures. Il y en a dans tous les sens et de plus en plus.

    Reply
  24. Linden

    oui, je déteste quand les gens essaient de couler mon site – je devais désavouer deux fois. En outre, le contenu en double peut être utilisé sur le même site que je pense.

    Reply

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.