Retour SMX Advanced Seattle – Day 1

Aaaaah… Alors… premier SMX depuis fouillaaaa… longtemps puisque le dernier était à Londres donc avant 2008 et surtout 1er SMX sur le territoire américain et on a beau dire qu’il y du beau monde sur les SMX que je qualifierai de “locaux” comme le SMX paris ou autres, on ne peut pas nier le fait qu a New York ou Seattle on a des chances de voir quelques conférences de certaines méga Star du SEO, avec tout le respect que je dois aux gens qui font le SMX Paris.

Bref je suis tout excite malgré mon âge avancé de dinosaure du web… dommage que certains de mes contacts ne soit pas là je vais profiter pleinement des conférences mais je pense que l’after n’aura pas le cachet d’un SMX Paris ou d’un SEO campus… Voici un retour sur l’évènement plus ou moins écrit en direct :
Bon alors déjà le SMX Seattle si tu veux faire ton bon élève et taffer, il faut arriver tôt, sinon tu ne choppes pas de table et tu te retrouves dans la salle avec ton portable sur les genoux – Et c’et pas pratique quand le Wifi arrête pas de planter – Note aux conférence centers – pensez a blinder vos Wifi avant les conf’s marketing – ça craint d’être au SMX et de voir le wifi planter toutes les 2 minutes.

1ere conf’ – Periodic Table of SEO Ranking Factors: 2014 Edition

3 speakers pour cette conférence – Marcus Tober de Searcmetrics sur les corrélations entre les différents paramètres SEO et les rankings, Marianne Sweeny sur la relation SEO/UX et Matthew Brown de Moz qui revient sur les paramètres de rankings et notamment sur les entités nommées. Alors tous ont insisté sur le fait que corrélation ne veut pas dire que ce sont des paramètres qui vont faire ranker dans l’absolu et que ces données ne donne que des indices sur comment ranker.
Marcus tober : D’après SearchMetrics les principaux paramètres a fouiller sont le suivants :

  • Vitesse du site – rien de nouveau mais encore un fois GG cherche a donner une bonne expérience aux utilisateurs et forcément un site rapide … ça aide
  • Plus surprenant (dans un sens) c’est l’opti de la navigation – il faut optimiser le nombre de liens interne et jouer mieux sur les ancres  navigation plus simple et plus claire
  • Longueur des contenu – apparemment la longueur des contenus “optimaux” aurait augmenté cette année pour les résultats PC (pas mobile)
  • Pertinence générale des contenus  on se rapproche du concept e cocon sémantique de Laurent – on se dirige vers une pertinence plus générale des contenus et mois cible “mot clé”
  • Les signaux sociaux perdent de l’importance  de manière générale les contenus partage le plus ont tendance à ranker mieux – même sans liens
  • Le nombre de liens perd de l’importance vis-à-vis de la qualité des liens – ca tombe bien pour moi – c’est plus facile d’avoir des “gros » liens quand on est gros soi-même.
  • En ce qui concerne le mobile les SERPs tendent a se diriger vers des résultats avec moins de popularité et plus de sémantique – notamment au niveau des entités (geo-local, knowledge graph etc …)

Marianne Sweeny

Une intervention plutôt… comment dire philosophique sur la relation UX/SEO dans l’absolu pas une mauvaise présentation même si la plupart des concepts qu’elle a présenté sont presque préhistoriques. Tout ce qui a été couvert durant cette intervention, je l’avais déjà traite chez 1ere position en 2003 dans une copywriting guideline que nous avions rédigé avec les collègues. Du coup ce que je vais faire par rapport a cette intervention c’est que je vais réécrire cette guideline et je vais la mettre sur le muscle dans un article plus tard cet été #teasing

Presentation – ICI

Matthew Brown

Matthew brown est revenu surtout sur la complexité des SERPs aujourd’hui compare à ceux d’hier avec l’apparition de GG map, graph, answer, video, photo etc… Son intervention tournera beaucoup autour des entités nommées et sera en parallèle aussi avec une certain angle du cocon sémantique de LaurentB. Il insistera sur le fait de donner de la pertinence a son site ou a l’univers autour de son site (GG local business etc…) sur des entités qui pourraient potentiellement donner d la visibilité a votre site via les différents éléments des SERPs – la présentation est restée très conceptuelle mais à donner quelques pistes intéressantes à suivre.

2eme conf’ – Keyword Research On ‘Roids! Advanced Workarounds For Vanishing Keyword Data

Nulle, zero, nada, moisie – conférence a oublier totalement, j’en profite d’ailleurs pour écrire cet article grosso modo on a eu 3 agence nous presenter les outils qu’ils utilisent dans leurs recherche de mots clés et leur recherche concurrentielles – on a eu donc droit à une démo rapide et mal foutue de Searchmetrics, SEM rush et hitwise …

Ma foi si je veux des démo de ce genre de tools je signe pour une période d’essai ou je les pitche en tant que vendeur – j’aurais des démo mieux que ça et pour moins cher encore…

Je m’attendais à chopper de l’info sur comment driver son site a travers le « not provided » et j’ai rien eu… je suis déçu.

Lunch – Session Q&A avec Adam Audette

Au top – Juste ENORME – pas tout a fait ce à quoi je m’attendais mais très bonnes session participative sur des questions bien précises – un peu ce qu’on aurait pu attendre d’une session after avec une tripotee de SEO inhouse ou agence qui échangent sur des questions diverses telles que la vitesse d’indexation, les outils, un petit débat sur le crawl des javascripts par les robots Google et ce qu’ils vont en faire, la mort annonce (en quelque sorte) de GG+

3e conf’ – Super Session: Enhancing Search Results With Structured Data & Markup

A super session de la journée – rien de révolutionnaire mais du très très très solide – durant toute la session nous avons fait un tour complet de tous les data markup possible et imaginable en partant du Opengraph et en finissant avec les twitter cards et même les rich pins en passant bien sûr par un tour complet des microformats et schema.org. Alors j’ai déjà parlé de tout le bien que je pense des microformat et c’est un sujet que je connais bien – et pourtant j’ai trouvé encore quelques éléments des sites dont je m’occupe pour lesquels je vais tenter quelques microformats.
Plus en bonus d’expérience et d’après les speakers – microformating « kick in » encore plus lorsque le site est propres et que les problèmes SEO majeurs ont été nettoyé.

Autre bonus pensez a tagger votre navigation – et oui et pensez à mettre le itemprop lie à l’UPC de vos produits !
Nous avons aussi eu un aperçu du knowledge graph … a priori personnes ne sait vraiment comment ca marche … mais il y a des tendances – par exemple c’est mieux si vous avez des comptes Wikipedia et Freebase.com car Google va piocher dedans et c’est toujours mieux d’avoir un peu la main sur les infos qui y sont diffuse. Aussi l’opengraph c’est quand même plutôt un souci de « gros » … pour les petits ne vous prenez pas la tête plus que ça.

une des presentation ICI

4e conference – 25 Link Acquisition & Auditing Issues For The Advanced SEO.

Link acquisition – la conférence commence avec Kaila Strong qui passe aux travers de plusieurs conseils pour gérer sa popularité, comment trouver des spots « surs » notamment à travers la recherche de ressources – par exemple si vous voulez du lien en .gov, . edu ou .mil … un choix peut être de donner un tarif préférentiel au militaires, aux étudiants ou au staff de telle administration ou telle université … rien de bien nouveau… mais bon quelque piste sur les footprints WH on va dire… et sur les moyens de rentrer en communication avec ces entités afin de voir ses liens mis en place.

A priori de temps en temps GG eut mettre de mauvais exemple de liens dans les notes de pénalité – donc conseil – si vous pensez vraiment que GG a mis un « bon » line dans les exemples peut-être est-il utile d’essayer de demander de plus de précision… mon avis c’est que c’est un peu inutile de demander plus de précision mais bon sait-on jamais – ils ont répondu a Kaila … alors pourquoi pas à vous.

Viennent ensuite un conf’ plutôt ennuyeuse de Prashant Puri sur comment monitorer ses liens vis-à-vis des pénalité qu’ils pourraient recevoir… alors je peux comprendre le cheminement … je contrôle mes liens mais je ne suis pas a l’abri d’avoir chopper des sites qui vont avec le temps se faire pénaliser pour telle ou telle raison et au final véroler mon profil a moi… grosso modo il faut garder un œil dessus mais …pffffff… j’ai déjà assez de taf avec le miens pour ne pas a avoir a checker en plus la popularité des sites des autres hein… es sites ‘est comme les gamins chacun élève les siens…

Dernier intervenant de la session est Rob Woods qui nous fait une présentation sur le diagnostic de pénalité algorithmiques… et notamment pingouin et ma foi au départ je me suis dit « pffffffff… encore ! » et puis au final ce fut plutôt une bonne petite présentation, c’est un sujet épineux s’il en est , a propos d’un sujet ou je pensais que tout avait été dit (et surtout tout et n’importe quoi) et qui n’est pas facile a traiter tant on est plus ou moins dans le flou. Rob nous a donner des tips concret, que tout le monde peut mettre en place – si je devais garder une chose de la présentation ce serait – « Pour une pénalité algo ne vous contentez pas de faire un désaveu … mettez-vous au boulot et tentez d’abord de cleaner votre profil a la pogne, c’est chiant mais c’est plus et au moins vous saurez ou vous en êtes. Et vous pourrez en même temps commencer à renverser la vapeur avec de BON liens» et « quand vous désavouez – shootez les sites – pas les URLs ».

Presentation de Rob Woods

Q&A avec matt Cutts,

Bon alors la c’est abuse tellement y ‘a du monde qui vient c’est a croire qu’on est tous la… j’ai même eu du mal a garder ma place. Dans l’absolu c’est plutôt fun les sessions entre Danny Sullivan et Matt parce que Danny n’hésite pas a rentrer dans le lard (gentiment) de Matt et a lui poser des questions qui dérange ou à faire des remarques bien sentie. Bref c’est plutôt fun et un gros coup de chapeau a Danny Sullivan pour ses questions du type « So Is google+ dead ??? » ou poser des questions sur le droit a l’oubli… En ce qui concerne l’info… ma foi pas de Panda 5 dans les tuyaux d’après Matt, ni de Penguin XX non plus – a venir une nouvelle version de du Paydayloan update qui est bel et bien un update (d’après Matt). Quelques trucs sont à venir au niveau du webmaster Tools notamment dans la fonction Fetch qui va vous permettre de voir comment GG intègre le JavaScript maintenant et aussi les Ajax … Matt insistant sur le fait de ne pas bloquer les CSS et les Jscripts parce que ça pourrait bloquer la « vue » des robots et donner une vision incomplète de votre site – et donc avoir un impact possiblement négatif sur les rankings …. Mais bon… c’est à prendre avec des méga pincettes hein !

PS.

vous excuserez les accents et les fautes d’orthographes.. il est tard et je sors d’une after bresilienne avec Brightedge… donc bon… article publié en live réel!

PPS TOUTES LES PRESENTATONS DU SMZ 2014 Sont ici