Retour sur le Pandaranol 1/3 – Ma stratégie
On est début juillet et depuis peu, nous avons constaté le sacre de champions du SEO : tiger, robin et backlinker.
Tous les participants et autres ont expliqués leur vision des choses. Je vous propose aujourd’hui la mienne en 3 points : ma technique, les techniques des concurrents et enfin le bilan de ce concours. Par souci de clarté, j’ai préféré découpé les articles en 3 points, certains plus détaillés que d’autres. Après si vous souhaitez tout lire d’un coup, je rajouterai des liens mais chaque post pourra être lu indépendamment
1ère partie : Ce qui a été déployé sur Jambon Panda
Jambon Panda s’est placé vers la 15e place des participants pendant une grande partie du concours (ce qui équivalait à la 400e position :(). Le NSEO ne l’a pas (trop) affecté car selon mes recherches je n’ai pas eu de liens en masse vers mon site dès le début du concours (blast). Je me suis aperçu assez rapidement que mon contenu était repris par BlackMelvin que je me suis amusé à ranker sur « Pandaranol arnaque », juste pour le fun.
J’ai vu la aussi le pouvoir du réseau. Je pense que si Tiger a réussi à se placer si haut c’est aussi (et surtout) parce que de nombreux participants l’ont épargné (dans un premier temps), mais nous y reviendront.
Pour ma part, j’ai placé ma technique de façon assez simple avec la trilogie du SEO que vous connaissez bien : structure, contenu, lien auquel je n’ai pas oublié d’ajouter une couche sociale grâce à twitter.
La structure
Pour ce qui est de la structure, j’ai évidemment pris un wordpress optimisé avec un plugin (de Yoast) en prenant soin d’optimiser le temps de chargement des pages grâce un thème très sobre graphiquement.
J’ai ensuite épuré à fond mes feuilles wordpress pour qu’elles n’affichent que les infos essentielles. J’ai fait quelques tests pour savoir quel était le meilleur compromis entre nombre d’articles affichés sur une page et temps de chargement. Ensuite, j’ai installé quelques hacks pour accélerer mon WordPress.
J’ai aussi fait en sorte que sur les liens d’articles, aucun lien ne pointe sur l’accueil mis à part les « pandaranol » présents dans les textes. Je n’ai pas pu voir si c’était une connerie ou une réussite.
Pour le premier point sur la structure, je ne pouvais aller plus loin, d’ailleurs les pages étaient indexées en un temps record donc sur ce point je ne pense pas m’être trompé. J’en profite pour faire un micro point sur le social (j’y reviendrai dans un autre article), j’ai couplé les publications avec un twitterfeed pour accélérer l’indexation des pages. Ça marche.
Le contenu
Sur les conseils de papyspinning (alias…plein d’autres pseudos) j’ai commencé à récupérer de la bouillie du texte spinné à partir de générateurs philosophiques. Ca a bien fonctionné dans un premier temps puis le site s’est écroulé. J’ai donc ensuite rédigé un peu de contenu ce qui m’a valu un beau yoyo de la part de google…
J’ai ensuite trouvé la solution ultime pour me fournir du contenu rapidement et de qualité. Cela m’a permis aussi de tester l’impact d’un contenu dupliqué sur l’indexation / le positionnement de celui-ci.
Voici la technique qui est toute simple : trouver un flux marchand indexé par Google, ouvrir le XML avec Excel pour en faire un beau tableau. Modifier quelques points (encodage, suppression des colonnes superflu, retour à la ligne, ajout/remplacement de mots clés) puis enregistrer en CSV et coupler cela avec une macro. Après traitement et quelques essais je me suis retrouvé avec un fichier de 4 500 entrées qui me permettait de faire un article toutes les 15 minutes composés d’une image, d’un texte et de différents mots clés. Niveau image, elles étaient présentes sur un autre serveur assez réactif, ce qui ne diminuait pas mon temps de chargement de page.
Hélas cette technique nécessite d’être très vigilent sur son fichier CSV, quelques articles ont bien cafouillés sur la fin. Avec minutie, j’aurais pu avoir 15 000 articles mais sentant que le vent n’allait pas tourner en ma faveur, je ne m’y suis pas penché plus que ça.
J’ai donc réussi la aussi à m’affranchir de la problématique du contenu, il ne me restait plus qu’à m’occuper des liens…
Les liens :
J’avais à ma disposition un plan de 80 annuaires en auto-approve où je pouvais mettre des liens publiés sous 24h (ce plan est tombé à l’eau à la fin du concours). J’ai donc mis régulièrement mes liens par ce biais. J’ai aussi ajouté des liens en spammant écrivant des commentaires chez d’autres personnes. J’ai aussi essayé de faire quelques blogs à la backlinker mais j’ai vite abandonné par manque de temps, moyens, compétence et motivation surtout.
Je pense que ce point a été celui qui m’a manqué le plus, ne bénéficiant pas d’un grand réseau de liens à forte autorité, je n’ai pas pu beaucoup me battre. De plus, je ne disposais pas forcément de grands soutiens humains, les seuls que je pouvais avoir faisaient déjà le concours. Merci quand même à http://www.monbuzz.org/ de me l’avoir apporté 😉
« L’abandon »
Une fois que mes conclusions sur plusieurs points ont été établies j’ai ensuite attendu en voyant mon site grimper dans les résultats au fur et a mesure où je rajoutais le contenu. Toutefois le 15 juin, Google a tout changé et j’ai vu que cela m’était profitable…jusqu’à ce que mes contenus automatisés s’arrêtent (erreur dans le CSV qui s’est vu peu de temps après). J’avais le choix entre tout refaire ou essayer de faire bénéficier quelqu’un de mon « avance » sur les autres. J’ai choisi la deuxième solution car je voyais que je n’allais de toutes façons pas finir dans le top 10 et que le concours commençait à me prendre trop de temps (j’en ai même rêvé la nuit…).
J’ai donc fait une redirection vers petit-panda.com.
Un conseil, n’utilisez jamais l’outil OVH, toujours l’.htaccess, c’est beaucoup plus rapide et efficace.
Petit Panda s’est ensuite placé en 1ere position peu de temps après. Je ne sais pas si c’est grâce à cette 301 mais je pense qu’elle a été profitable. J’ai donc eu le temps d’analyser plus en détail les sites des concurrents et vous avez sûrement remarqué qu’il fallait du temps !
Voila pour ma stratégie en gros. Je pense que j’ai juste joué en surface sans m’occuper des points de détail qui aurait pu m’aider à long terme. Je ne sais pas si je referais un autre concours, je ne crains pas l’effet NSEO mais plutôt le manque de temps à consacrer pour bien faire vivre son site. Dans le prochain billet, j’essaierai de revenir sur les techniques remarquables que j’ai pu voir.
D’ici là, vous pouvez exprimer votre joie dans les commentaires.
Accès rapide aux articles suivants :
Donc pour résumer, entre le plan des 80 annuaires en Auto-Approve et l’astuce (bien trouvée) du flux XML en CSV, tout s’est cassé la figure vers la fin… Donc on peut dire « la faute à pas de chance » aussi, ou alors au caractère expérimental (donc risqué) de la manip’ 😉 Bravo et merci pour le retour d’expérience !
Merci pour le retour,
je pense que la grosse différence pour les vainqueurs a éffectivement été la présence de gros réseau de sites a forte authorité – Ca fait d’ailleurs assez peur car a mon avis les lascars comme Tiger n’en n’ont pas montré la moitié du quart du dixieme de leur réseau, pas fou non!?
En tout cas un concours qui aura été tres tres riche en enseignement… plus que beaucoup d’autres précédemment…
Qu’est-ce que le fameux « outil OVH » que tu déconseilles d’utiliser ?
J’ai pas bien compris ce qu’était le flux marchand indexé par Google. Tu peux donner un peu plus d’informations ?
@Martin : L’outil « redirection web » présent dans le manager. Il te fait une 302 et dès que tu désactives il te fait sauter tes parametrages DNS. Evidemment, comme c’est du OVH, tu dois attendre des plombes après chaque action. Un htaccess c’est immédiat.
@Listesdeproxy (sérieux, ya un plugin pour vos mots clés…) : certains marchand possèdent un flux XML qu’ils exportent au comparateur. Quand c’est bien fait, ce n’est pas indexable. Quand c’est mal fait…un simple allinurl: te permet de les trouver ^^ Je n’en dirais pas plus dans le cadre d’un concours ça passe, dans le cadre d’une technique de spam, ça peut pénaliser le marchand
Pas mal du tout ce compte rendu.
D’ailleurs, à force de lire tous ces avis et retours d’expérience sur le concours, je me rend compte qu’un seul élément a réellement de l’importance : les liens…
PS:D’un côté pour utiliser OVH, il faut être suicidaire ^^
Merci pour le retour. Je pense que tu manquais cruellement de liens pour espérer titiller le haut du pavé.
Pour le coup du XML, même si il n’est pas indexé, c’est pas du full duplicate avec le site marchand ?
+1 pour le coup des catalogues des flux marchand 😉
=> technique déjà utilisée et confirmé efficace : par contre, ne pas prendre les flux de la fnac ou des gros sites qui sont totalement duplicate 😉
if needed, j’ai un script pour parser du netaff
@Keeg : Si c’est du full duplicate avec le site marchand et avec tous les comparateurs de prix. Je vais détailler ça dans la 3e partie de ce rapport. J’avais changé quelques mots clés en Pandaranol mais par contre une chose est sur : il ne faut pas avoir peur du full duplicate :p
Merci pour ce petit retour d’expérience. Je n’ai pas encore trouvé le temps de m’investir dans un concours SEO même si j’aimerai m’y essayer un jour.
Cela dit, il est toujours intéressant d’avoir un retour des techniques utilisés par un participant. Surtout en période de mise à jour de Google.
Merci pour le retour 🙂
Par rapport aux liens dans les articles vers la home, uniquement sur un terme, quelqu’un aurait-il un retour à faire? Ne tombe t’on pas dans la suropti?
Merci pour ton retour très intéressant.
Je suis bien intéressé par ta technique pour accélérer le temps de chargement des pages.
Est ce que tu te souviens de tes temps de chargement avant et après opti ?
Les liens, c’est tout ce qui compte.
Je suis quand même étonné de voir la préoccupation des référenceurs quant à la vitesse de chargement. Google pousserait-il a faire des sites moches, sans design ?
@Daniel
Je suis d’accord avec toi et d’ailleurs je suis en train d’écrire un billet la dessus… j’espere passer sous presse pour midi (CMT – heure locale pour moi)
Merci pour ton retour 🙂
c’est intéressant de voir comment les participants s’y sont pris. et les analyse faites par chacuns. j’attend les prochaines parties avec impatience 🙂
Merci pour la transparence de ta stratégie MdS.
Bien vu le coup du flux catalogue, je le met de côté pour l’avenir.
J’ai hâte de voir l’étude des pratiques des concurrents que tu vas nous faire partager 🙂
Merci pour le partage de ton expérience. Je pense qu’avec un peu plus de motivation et de mains de ton côté, tu aurais pu arriver à un résultat intéressant mais tu as fait le bon choix arrivé à deux semaines de la fin, je pense que j’aurais fait pareil 😉
Bonjour,
Votre teasing sur twitter a marché pour moi, je rafraichissais tout le temps ma page pour vérifier si le bilan est déjà en ligne.
+1 aussi pour le flux marchand; mais avec ce qu’a dit Matt Cuts, comment ne pas avoir peur du full duplicate ?
Je vais lire les parties 2/3 et 3/3