Mémoire de Recherche Appliquée©moire de recherche appliq… · Web viewDans la deuxième moitié...
Transcript of Mémoire de Recherche Appliquée©moire de recherche appliq… · Web viewDans la deuxième moitié...
Antoine Pourron
MCS – ISEG Lyon
5ème année
MÉMOIRE DE RECHERCHE APPLIQUÉE
Année Universitaire 2011-2012
Antoine Pourron SEO White Hat et SEO Black Hat
SOMMAIRE
2
Antoine Pourron SEO White Hat et SEO Black Hat
AVANT-PROPOS
Internet occupe dans le monde d'aujourd'hui une place que l'on pourrait presque qualifiée
de vitale. L'organisation des échanges mondiaux, du commerce mondial, des flux de capitaux ou
bien également de la communication entre les milliards de personnes de la planète se fait
majoritairement par cet outil. Internet a dépassé depuis plusieurs années le statut de simple
média. Son évolution gigantesque au fil des années est la preuve de sa force, et n'est comparable
à aucune autre technologie. Encore aujourd'hui, nous vivons au jour le jour son développement,
avec l'apparition sans cesse de nouveaux produits et services et de nouvelles technologies
rendant les possibilités d'évolution toujours plus exponentielles. Le transfert d'internet sur les
appareils mobiles (smartphones et tablettes) en est un exemple très clair.
Parallèlement, le développement de l'outil internet a été la base de la création de millions
d'emplois à travers le monde. Certains métiers ont été créés spécifiquement, d'autres ont été une
évolution de métiers déjà existants. Avec ce nouvel outil mis à disposition de tous, il a fallu en
effet revoir un grand nombre de stratégies d'entreprises, travailler sur de nouvelles techniques,
mais aussi changer considérablement sa façon de penser, de communiquer et d'entretenir des
relations avec ses connaissances.
Même si son évolution est très ressente, internet existe depuis assez d'année pour avoir un recul
nécessaire quant à sa compréhension globale et à son fonctionnement. A l'heure actuelle, et de
manière globale, il est possible de distinguer trois types d'acteurs qui évoluent sur internet :
Les simples visiteurs, à la recherche de distractions, de rencontres, d'informations ou
bien d'un produit ou service...
Les Webmasters : Toutes les personnes/entreprises qui possèdent ou qui travaillent sur
un site internet
Les moteurs de recherche : Outils internet qui vont permettre la rencontre entre les
internautes et les sites qu'ils recherchent.
3
Antoine Pourron SEO White Hat et SEO Black Hat
Un site internet ne peut exister sans être visible sur les moteurs de recherche. C'est la raison pour
laquelle les webmasters ont mis en place un certains nombres de techniques, que l'on pourrait
qualifier de techniques webmarketing, pour faire apparaître de la meilleure façon possible leurs
sites internet dans les moteurs de recherche. On parle alors plus communément de techniques de
référencement.
Le référencement sur internet est divisé en deux catégories bien distinctes. La première est
appelée référencement naturel, référencement gratuit ou en anglais, SEO (search engine
optimization). La seconde catégorie est le référencement payant, beaucoup moins abordables
pour les webmasters puisque cette technique consiste à payer les moteurs de recherche pour
apparaître sur ceux ci. Il s'agit du SEM (search engine marketing).
Au travers de se mémoire de recherche appliquée, je souhaite m'intéresser spécifiquement au
référencement naturel, et à toutes les techniques qui s'y rapporte, puisqu'il s'agit de la base de la
visibilité d'un site internet. Ce sont majoritairement ces stratégies de SEO qui vont permettre de
créer un lien entre les internautes "visiteurs" et les sites internet. D'une autre manière, il s'agira
d'étudier l'activité quotidienne des webmasters et référenceurs qui travaillent constamment au
développement de leurs sites internet, à la visibilité de ces derniers et aux différentes manières de
les rendre rentables et pérennes.
Dans le référencement naturel (SEO) et dans les techniques mises en place, deux écoles bien
spécifiques et différentes existent : Le référencement légal (appelé SEO White Hat) et le
référencement illégal (SEO Black Hat). Les webmasters et les entreprises vont, en fonction de
leurs objectifs et de la considération qu'ils ont du référencement, devoir choisir un axe
stratégique dans une seule de ces deux écoles. Même si l'objectif à moyen et long termes est le
même, c'est à dire obtenir le meilleur positionnement de son site internet sur les moteurs de
recherche, les techniques utilisées divergent fortement. L'intérêt d'un tel mémoire est également
de mieux comprendre le référencement Black Hat, domaine encore sombre en France et
maitrisé par peu de personnes, deux caractéristiques dues en grande partie à son caractère illégal.
4
Antoine Pourron SEO White Hat et SEO Black Hat
Le but de ce mémoire de recherche appliquée va être de comprendre et savoir pourquoi
certains acteurs d'internet vont être amenés à utiliser le référencement légal, et pourquoi
certains vont utiliser le penchant illégal de ces stratégies. Pour rendre les propos développés
tout au long de ce mémoire les plus représentatifs possibles, nous nous positionnerons alors dans
une problématique de secteurs concurrentiels, domaine où les deux techniques de référencement
naturel sont omniprésentes et très importantes pour les différents acteurs. Par ailleurs, nous nous
intéresserons d'avantage au moteur de recherche Google qu'à ses concurrents, celui-ci ayant une
place quasi-monopolistique en France.
Dans la première partie, partie exploratoire de ce mémoire de recherche appliquée, nous allons
nous intéresser à l'évolution de référencement naturel depuis l'arrivée d'internet et des moteur de
recherche, pour ensuite développer plus particulièrement les différentes caractéristiques et
techniques du référencement légal et du référencement illégal. L'objectif de cette partie sera aussi
de comprendre le fonctionnement de Google et comment le moteur de recherche est-il arrivé à
occupé cette place de leader incontesté dans le domaine du référencement et du web en général.
Une problématique et des hypothèses associées pourront ainsi être dégagées, afin de construire
un modèle d'analyse qui viendra infirmer ou confirmer les différentes hypothèses établies, ce qui
constituera la partie terrain de ce mémoire. Les étapes d'observation, d'analyse des information
et de recommandations viendront compléter cette seconde partie.
5
Antoine Pourron SEO White Hat et SEO Black Hat
I. PARTIE THÉORIQUE
1.1 LE RÉFÉRENCEMENT NATUREL - SEARCH ENGINE OPTIMIZATION (SEO)
Dans cette première sous partie, nous allons nous intéresser au référencement naturel, de
sa création à la place qu'il occupe aujourd'hui dans le monde de l'internet, en passant par son
évolution et celle des moteurs de recherche. En effet, le search engine optimization n'existerait
pas sans les moteurs de recherche, et c'est la raison pour laquelle il est important de s'intéresser à
ces outils qui aujourd'hui sont indispensables aux internautes, qu'ils soient visiteurs, webmasters,
professionnels ou entreprises. De véritables empires technologiques se sont construits autour des
moteurs de recherche, preuve de leur importance. Le SEO a suivi ce développement et a connu
de nombreuses transformations depuis son apparition, qu'ils s'agissent des techniques qui s'y
rapportent, de son intérêt mais aussi de son fonctionnement. C'est ce que nous allons détaillé
dans cette première partie.
1.1.1 Historique des moteurs de recherche et arrivée du SEO
Avant tout, il est important de distinguer les moteurs de recherche utilisés pour les
intranets et pour internet. Les intranets étaient utilisés par les services militaires, les
bibliothécaires ou bien les universitaires dans les années 80 avant que cette technologie soit
répandue au domaine privé et au grand public, devant ainsi l'internet. A cette époque, des
moteurs de recherche étaient mis en place pour le traitement de l'information de ces systèmes
intranet. Très vite, dès le début des années 90, nous allons parler de moteur de recherche pour
internet. Le premier réel moteur de recherche, nommé "Archie" est arrivé en 1990. Mais il ne
s'agissait pas encore d'un moteur de recherche sous forme de site web, comme nous les
connaissons aujourd'hui. C'était un logiciel mis en place pour rechercher des documents sur
internet.
6
Antoine Pourron SEO White Hat et SEO Black Hat
Sur internet, le premier moteur de recherche date de 1993 et se nommait "Wanderer". Son
principe rejoint celui de tous les moteurs de recherche actuels : Sillonner le web grâce à de
nombreux robots appelés "bots" ou "spiders" dans le but de répertorier et référencer tous les sites
internet existants. Un an plus tard, en 1994, le moteur de recherche "Yahoo" est apparu avec un
principe novateur qui consistait à créer
humainement un annuaire des sites internet les
plus pertinents et qualitatifs. Contrairement au
moteur de recherche "Wanderer", il ne s'agissait donc pas de robots. Cet approche a permis à
Yahoo de devenir très rapidement le portail web le plus utilisé.
Dans la deuxième moitié des années 90, le processus de développement des moteurs de
recherche va s'accélérer, parallèlement à l'arrivée d'internet dans les ménages. "Lycos" va voir le
jour en 1995, "Altavista" en 1996. Ces nouveaux arrivants se basent sur de nouveaux procédés
qui vont leur permettre de se perfectionner et d'offrir des résultats toujours plus rapide, plus
exhaustifs et plus pertinents. Cependant, ces moteurs n'étaient pas encore optimisés pour les
utilisateurs de France. C'est ainsi qu'est né "Nomade.fr", premier annuaire internet en version
française. Peut de temps après, en 1998, France télécom lança son moteur de recherche
"Voila.fr". La même année, deux étudiants de l'université de Stanford, vont mettre au point le
moteur de recherche qui va révolutionner internet :
"Google". Avec une approche différente, Sergei Brin et
Larry Page vont créer un algorithme qui aura pour but
de classer les sites internet dans le moteur de recherche
en fonction de leur popularité auprès des internautes. La
rapidité, l'exhaustivité et la pertinence des résultats du
moteur de recherche vont lui permettre de se faire une place très rapidement sur internet. En l'an
2000, Yahoo va d'ailleurs choisir Google comme moteur de recherche pour son portail. En 2002,
le géant américain de service internet "AOL" en fera de même.
Au début des années 2000, il s'agira d'un tournant pour les moteurs de recherche. Certains ayant
optés pour la stratégie de "portail" au lieu de développer une technologie d'algorithme comme
Google disparaîtrons petit à petit. Cette à cette période que Google s'imposera comme le moteur
7
Antoine Pourron SEO White Hat et SEO Black Hat
de recherche incontournable et l'outil le plus utilisé par les internautes, dont les internautes
français. C'est en 2002 que Google sera critiqué, pour la mise en place de ces "liens sponsorisé"
dans les résultats de recherche, mais cela n'empêchera en aucun cas sont évolution et son
développement
C'est avec l'arrivée des moteurs de recherche se basant sur une stratégie d'algorithmes que le
référencement naturel est apparu. Le but était alors de comprendre comment fonctionnaient ces
algorithmes afin de mettre en place des stratégies qui permettront d'apparaître à de meilleures
positions dans les résultats de recherche.
1.1.2 Le fonctionnement des moteurs de recherche
Le fonctionnement des moteurs de recherche est, en règle générale, commun au
différentes marques proposant ce service : Yahoo, Google ou encore Bing (moteur de recherche
du géant américain Microsoft). Tout d'abord, il convient de définir ce qu'est un moteur de
recherche. D'après Olivier Andrieu, consultant en référencement et auteur des différentes
éditions Réussir son référencement web, le moteur de recherche peut être défini comme "un
programme qui indexe de façon automatisée le contenu de différentes ressources internet
permettant à l'internaute de rechercher de l'information via des mots clés1".
Par le verbe "indexer" des ressources internet, il faut comprendre répertorier ou référencer des
pages internet. Le processus de référencement des pages sur internet par les moteurs de
recherche se font en trois étapes bien distinctes :
Le crawling : Processus automatique qui vise à inspecter tous les sites web de manière
plus ou moins régulière via des robots appelés bots ou spiders, en vue de les répertoriés et
de les référencer. Ces robots ont tous un nom attribués pour chaque moteur de recherche :
o Google : GoogleBot
o Yahoo : Slurp ou YahooBot
1 Définition Moteur de recherche par Oliver Andrieu - http://www.journaldunet.com/solutions/0604/060407-referencement-fonctionnement-moteur.shtml
8
Antoine Pourron SEO White Hat et SEO Black Hat
o MSN : MSNBot
L'indexation : Une page interne indexée dans un moteur de recherche signifie qu'elle a
été visitée par les robots qui balayent internet, page qui est désormais référencée et
visible dans le moteur de recherche en fonction des mots clés tapés par l'internaute.
Le ranking : Enfin, le ranking va être l'attribution d'un positionnement de la page indexée
dans les résultats de recherche en fonction du mot ou des mots clés tapés. De manière
logique, les pages internet les mieux notées ("rankées") par les moteurs de recherche
apparaîtront dans les premiers résultats de recherche.
Avant développer plus en détails les prochaines parties sur le référencement, il est nécessaire de
définir correctement et clairement ce à quoi servent les algorithmes des moteurs de recherche.
Au travers du système d'indexation présenté ci-dessus, les moteurs de recherche vont attribuer un
positionnement à chaque page internet existantes. Le positionnement correspond à la place de la
page dans les résultats de recherche en fonction d'un ou de plusieurs mots clés tapés. C'est ce
que l'on va appeler le référencement naturel. Un site dit "bien référencé" sera dans les
premières position dans les SERP (search engine results page), page de résultats d'un moteur de
recherche, en Français. Un site ou une page internet dit "bien référencé" pourra également être
appelé "puissant" ou "influant" du point de vue du référencement. Sur certains moteurs de
recherche, comme sur Google, une note va être attribuée pour chaque page indexée. Dans le cas
de Google, cette note est appelée "Pagerank". Une page web sera notée de 0 à 10 par Google en
fonction de sa puissance (du point de vue du référencement). Une page ayant un pagerank de 8
sera un site très bien référencé et très bien positionné dans les SERP.
Ce processus d'indexation par l'algorithme des moteurs de recherche va dépendre de nombreux
critères, qui vont évoluer au cours du temps pour rendre les résultats de recherche toujours plus
pertinents pour l'utilisateur. Nous nous intéresserons à ces évolutions et optimisations des critères
d'indexation dans une prochaine partie, puisque c'est elles qui vont être a la base du
développement des stratégies de référencement.
9
Antoine Pourron SEO White Hat et SEO Black Hat
1.1.3 Google : Leader indétrônable des moteurs de recherche
1.1.3.1 Google - Evolution des années 2000 à aujourd'hui
C'est en l'an 2000 que Google est réellement apparu comme un acteur de taille du secteur
d'internet, en devenant le moteur de recherche le plus important du monde avec, déjà à cette
époque, une version pour 15 langues différentes. Avec plus de 10 ans de recul, il apparaît très
clairement que Google à voulu, dans les premières années de son développement, consolider les
bases de l'outil qui l'a rendu célèbre, son moteur de recherche. C'est pourquoi, la même année,
Google à lancé son outil de création de liens sponsorisés : Google Adwords. Avec cet outil, les
webmasters pouvaient payer pour apparaître de façon très visible sur
les pages de recherche de certains mots clés tapés. C'est à partir de ce
moment qu'est né le Search Engine Marketing, ou référencement
payant, une technique totalement différente que le référencement
naturel/gratuit. Dès 2001, Google lançait le troisième outil de son moteur de recherche : "Image
Search", permettant aux internautes de rechercher parmi une base de plus de 250 millions
d'images. En signant en 2002 un partenariat avec AOL, Google à augmenté d'une manière
fulgurante sa notoriété et son utilisation aux Etats-Unis comme dans le reste du monde, en se
positionnant encore d'avantage comme le moteur de recherche le plus abouti et le plus pertinent.
En 2003, et en plus du développement de nouveau services pour son
moteur de recherche comme "Book search" permettant la recherche dans
une base de nombreux ouvrage, Google commence à lancer d'autres
outils, par ses propres moyens ou bien par le rachat de sociétés. Ainsi, la
plateforme de blog "Blogger" a vu le jour. L'évolution de la firme de
Mountain view s'est accrue d'avantage au milieu des années 2000, notamment avec son entrée en
bourse parfaitement réussie en 2004. S'en est suivie la mise en place des services géographique
"Google maps" et "Google Earth" qui viennent compléter les possibilités de recherche pour les
internautes.
2005 et 2006 ont été de fort développement pour l'entreprise, et continue de proposer aux
internautes des services et outils différents mais complémentaires : La messagerie mail de
10
Antoine Pourron SEO White Hat et SEO Black Hat
Google "Gmail" sera lancé en décembre 2005, tout comme le service associé de messagerie
instantanée "Google Talk". 2005 a aussi été l'année du rachat d'"Android" par Google, pour un
montant resté secret. Ce rachat est décrit par l'entreprise comme la meilleur affaire réalisée. En
effet, Android concurrence aujourd'hui très fortement le système d'exploitation iOS d'Apple, en
France comme à l'étranger. Android est tellement rentable que les "publicités issues du système
d'exploitation permettent à elles seules de couvrir les frais de développement2".
Fin 2006, Google annoncera l'acquisition de "Youtube", le leader de l'hébergement de vidéos en
ligne, pour prêt de 1,65 milliard de dollars3. La publicité étant au coeur du business model de
Google, la société s'est très vite rendu compte que la publicité
allait de plus en plus arriver sur les plateformes d'hébergements de
vidéos. Youtube était alors un concurrent de taille pour Google,
qui à donc décidé de le racheter, un investissement à long terme
qui semble avoir porté ses fruits, puisque le service de vidéos
comptabilisait en Février 2011 plus de 490 millions d'utilisateurs par mois4.
En 2008, Google quittera une partie des services purement web en s'attaquant au marché des
navigateurs avec l'annonce du lancement de "Google Chrome", et cela en vue de concurrencer
les 3 principaux acteurs du marchés : 2 Source Venturebeat.com - http://venturebeat.com/2010/10/27/google-exec-android-was-best-deal-ever/3 Source Numérama.com - http://www.numerama.com/magazine/3399-pourquoi-google-rachete-youtube-165-milliard-de.html4 Source Youtube.com
11
Antoine Pourron SEO White Hat et SEO Black Hat
Internet Explorer (par Microsoft)
Firefox
Safari (par Apple)
Un pari à nouveau réussi pour Google, puisque son navigateur occupe aujourd'hui la deuxième
place en part en marché, et vient concurrencer très fortement le géant de Microsoft, Internet
Explorer. En seulement 3 ans d'existence, Chrome a en effet dépassé Firefox dans le monde en
Novembre 20115 :
Depuis cette date, Google cherche à optimiser toujours plus ses services, à les rendre toujours
plus complémentaires, tout en travaillant sur de nouveaux projets. Les outils Google vont peu à
peu s'uniformiser pour offrir aux utilisateurs un seul et même design, plus clair, plus simple et
plus intuitif. Au début de l'année 2011, Google annonça l'arrivée de son réseau social "Google+",
service lancé au milieu de l'année 2011, dans le but de concurrencer Facebook. Malgré le retard
de Google dans le domaine du social, le groupe à misé sur son omniprésence sur le web pour
attirer les utilisateurs. Google+ à d'ailleurs été retravaillé fortement en 2012 pour apporter des
éléments de différenciations par rapport au géant du secteur, Facebook. Le but était également
d'apporter une approche d'avantage sociale dans les résultats de son moteur de recherche. 2011 et
2012 a encore été une période de nouveaux outils importants et novateurs pour Google :5 Source - Cabinet StatCounter, GlobalStats et lefigaro.fr
12
Antoine Pourron SEO White Hat et SEO Black Hat
Sortie de Google Music (uniquement aux USA pour le moment) fin 2011 : Service
d'hébergement et d'écoute de musiques en ligne et sur n'importe quel support connecté à
internet
Sortie de Google Play au début de l'année 2012 : Service de téléchargements gratuits ou
payants d'applications mobiles et tablettes mais aussi de film. A travers Google play,
l'entreprise cherche à créer une plateforme de divertissement accessibles à tous ses
utilisateurs, comme l'a fait Apple avec son logiciel iTunes.
Sortie de Google Drive au milieu de l'année 2012 : Service de création de documents en
ligne : document texte, présentation, feuille de calcul, formulaire, dessin, etc. Ces
documents sont automatiquement enregistrés en ligne et sont ensuite disponibles depuis
n'importe quel support connecté à internet.
Au travers de cet état des lieux des services et outils mis en place par Google depuis ses débuts,
il est possible de dire que l'entreprise s'est
construit et s'est développé afin de consolider
continuellement ses services entre eux. Même si
la bataille du social n'est pas encore gagnée avec
le géant Facebook, Google s'est construit une
place de leader et acteur incontournable du Web
depuis sa création, principalement en Europe où
les parts de marchés avoisinent les 90% 6. Dans
les pays d'Amérique du Sud et d'Amérique du
Nord, les parts de marchés de Google varient
entre 65% et 75%, dus à une concurrence plus
forte des autres moteurs de recherche comme
Bing (Microsoft). C'est la raison pour laquelle les stratégies de référencement naturel se sont
mises en place en majeure partie sur Google.
Nous avons vu dans cette partie que le moteur de recherche était toujours plus ou moins placé
au centre des évolutions des services Google. Nous allons donc voir dans la partie suivante que 6 Source - Google.com 2011
13
Antoine Pourron SEO White Hat et SEO Black Hat
son algorithme à su évoluer parallèlement avec les tendances d'internet, changements qui ont
eux des impacts sur le référencement des pages internet.
1.1.3.2 Google - Les changements d'algorithmes
Au cours de son développement et depuis sa création, Google a fait évoluer son
algorithme afin de le rendre toujours plus pertinent, plus rapide et plus exhaustif pour les
internautes.
L'indexation des pages va dépendre de critères qui vont être mis à jours par la société en fonction
des tendances du web que nous allons développés ci-dessous. Même si ces changements existent,
l'algorithme de Google garde cependant des critères de bases, critères qui ont fait le succès du
moteur de recherche depuis sa création. C'est ce que nous explique Matt Cuts dans une vidéo
publiée sur Youtube en début d'année 2012. Il s'agit d'un ingénieur qui à rejoint Google en
Janvier 2000 et qui est aujourd'hui le directeur de l'équipe "Webspam" de Google.
Dans cette vidéo, Matt Cuts nous informe sur le
fonctionnement du référencement naturel de Google. Il
explique que les sites les mieux classés dans les résultats de
recherche Google vont être ceux qui ont le plus de liens
entrants (Backlink : liens provenant d'un autre site internet et
pointant vers le nôtre), en prenant également en considération la réputation des sites faisant ces
liens. Par exemple, un lien entrant en provenance d'un site bien référencé par Google aura plus de
poids du point de vue du référencement qu'un lien entrant en provenance d'un site avec moins de
puissance. Il insiste également sur la relation entre les mots clés tapés par l'internaute lors de sa
recherche. Le moteur de recherche Google va répertorier le nombre de page web parlant
distinctement de chaque mot et le nombre de page web qui parlent de tous les mots en même
temps. Enfin, il explique que les robots qui balayent tous les sites web peuvent être amenés à
visiter une page plusieurs fois par jour, en fonction du nombre de mises à jours effectuées sur
la page et de sa popularité. Le positionnement de cette page dans les résultats de recherche
14
Antoine Pourron SEO White Hat et SEO Black Hat
Google pourra donc être amenée à bouger régulièrement. C'est ainsi que le positionnement de
base des sites va être effectué.
Nous allons à présent développer les différents et principaux changements qui ont été opérés par
l'entreprise sur son algorithme. Il est tout de même nécessaire de préciser que plusieurs centaines
de mise à jour de l'algorithme sont faits chaque année, mais, de manière génrale, seule une petite
partie a un impact réel sur le référencement naturel des pages indexées. Pour chaque changement
important de son algorithme (période où le classement des pages et sites référencés est mis à
jour), Google l'associe à un nom spécifique pour l'ancrer plus facilement dans une démarche
d'évolution7 :
Boston - Février 2003 : Première réelle mise à jour de l'algorithme. Au départ,
l'algorithme de Google est mis à jour tous les mois, pendant la pleine lune. Le nom
associé à cette période était "Google Dance". A cette date, les mises à jours étant
devenues plus fréquentes, Google à décidé d'abandonner peu à peu cette idée de
changement mensuel.
Cassandra - Avril 2003 : Google à retravailler sur les fondamentaux du référencement de
qualité en pénalisant (forte baisse du référencement) les pages et sites internet composés
de textes cachés et liens cachés.
Florida - Novembre 2003 : Changements très importants qui visaient directement les
mauvaises pratiques des professionnels du référencement sur internet. Google a pu mettre
fin à environ 90 pratiques, dont celle du " bourrage" de mots clés, technique visant à
surcharger une page internet de certains mots clés pour apparaître à ne meilleures
positions dans les résultats de recherche.
Austin - Janvier 2004 : Changement qui à permit de pointer d'autres abus mis en avant
par "Florida", dont le texte invisible sur les pages et le "bourrage" des META Tags (liste
de mot insérés dans le codage d'une page web afin de renseigner les robots des moteurs
de recherche du sujet traité sur cette page).
Brandy - Février 2004 : Améliorations apportés à l'algorithme au niveau de la pertinence
des résultats de recherche. Google va accorder d'avantage d'importance à l'ancre d'un lien
7 Source - Classement des changements d'algorithmes Google par date - http://www.seomoz.org/google-algorithm-change
15
Antoine Pourron SEO White Hat et SEO Black Hat
(texte sur lequel se trouve un lien) et à l'analyse des correspondances des mots clés et
synonymes.
Jagger - Octobre 2005 : Changements apportés sur la prise en compte de la qualité des
liens. Cette mise à jour cible les liens de faibles qualité : échanges de liens réciproques,
fermes de liens et liens rémunérés, qui n'ont que peu d'intérêt pour l'internaute et qui ne
servent qu'à pousser virtuellement le référencement des pages. Google à donc sanctionner
ces pages grâce à ce nouvel algorithme.
Universal Search - May 2007 : Amélioration des résultats de recherche avec l'intégration
des autres services Google : News, vidéos, images... Le temps des "10 annonces texte"
était révolu.
Caffeine & Real-time Search - 2009 : Google annonce un changement d'infrastructure
massif pour accélérer l'indexation des pages internet et améliorer l'efficacité du moteur de
recherche. En décembre, Google lance la recherche avec affichage des résultats en temps
réel, ainsi que l'intégration de Twitter et de Google Actualité, en essayant de donner à son
moteur de recherche une approche plus sociale.
Panda - Février 2011 8: Une évolution majeure dans l'algorithme Google mettant près de
2 mois à se développer dans le monde. Les changements apportés ont eu des
conséquences très importantes pour un grands nombre de sites internet. Environ 12% des
résultats de recherche Google ont été affectés, et des baisses de trafic allant jusqu'a -90%
ont été comptabilisées, obligeants certaines structures et entreprises à stopper toutes
activités. Panda a frappé l'Europe en Avril 2011 et des mises à jour régulières sont
opérées depuis. Pour Google, le but de Panda était de nettoyer son index (pages et sites
internet indexés dans son moteur de recherche), en supprimant ou pénalisant fortement :
o Les pages à faibles contenus. Site un site internet est composé d'un trop grand
nombre de pages à faibles contenus, le site entier est désindexer.
o Les pages dont le contenu est trop similaire à d'autres pages déjà existantes sur
internet
8 Source - Dossier Google Panda sur webrankinfo.com - http://www.webrankinfo.com/dossiers/techniques/google-panda
16
Antoine Pourron SEO White Hat et SEO Black Hat
o Les fermes de contenus : "Sites créés et développés spécialement pour générer des
revenus publicitaires"9.
o Les sites composés de trop nombreuses publicités et les sites ne présentant pas
assez de normes qualitatives définies par Google
Penguin - Avril 2012 : Dernière mise à jour de l'algorithme Google en date. Tout comme
Panda, celle-ci devrait changer de manière significative les habitudes des professionnels
du référencement et les stratégies mises en place depuis plusieurs années. Même si il n'y a
pas encore assez de recul par rapport à cette dernière mise à jour, Penguin aurait comme
objectif de cibler et pénaliser les sites et pages suroptimisées du point de vue du
référencement mais aussi la suroptimisation des liens. Deux semaines après le lancement
de Google Penguin, Matt Cuts (responsable du webspam chez Google) a accordé une
interview au site SearchEngineLand.com. Il explique que même si certains sites ont
perdu de nombreuses positions dans les résultats de recherche, il reste "convaincu que
Google Penguin a permis de mettre hors jeu ceux qui spamment son index ou qui en
avaient l’intention10". Il ajoute " Google Penguin a un objectif de précision. A savoir, agir
efficacement contre toutes les pages renvoyant un fort signal de sur-optimisation ou de
spam".
D'après cet état des lieux des principales mises à jour des algorithmes fait par Google depuis sa
création, il apparaît que le leader des moteurs de recherche souhaite rendre son outil toujours
plus qualitatif et plus efficient, parfois au dépend de certains sites déjà en place depuis
plusieurs années. Google se bat depuis sa création sur les pratiques illégales du référencement,
stratégies que nous allons développer dans la deuxième partie de cette partie exploratoire. Au
travers des modifications de son algorithme, Google montre qu'il prend de plus en plus en
considération les interactions sur les réseaux sociaux. L'objectif et l'intérêt pour l'entreprise sont
aussi de développer son réseau social Google+ en vue de concurrencer Facebook. Une page web
ou un site internet étant relayés de nombreuses fois sur les réseaux sociaux, et créant beaucoup
d'interactions, gagnera d'avantages de positions dans les résultats de recherche que les pages web
9 Source : Définitions-Webmarketing.com - http://www.definitions-webmarketing.com/Definition-Ferme-de-contenus10 Interview Matt Cuts pour Danny Sullivan (SearchEngineLand.com), Avril 2012
17
Antoine Pourron SEO White Hat et SEO Black Hat
n'étant pas relayées. Les habitudes de référencements changent et évoluent. Il s'agit d'un travail
d'adaptation de la part de tous les professionnels SEO pour élaborer de nouvelles stratégies, dans
l'objectif d'obtenir continuellement les meilleurs positions dans les résultats de recherche Google.
C'est ce à quoi nous allons nous intéresser dans les prochaines parties de ce mémoire.
1.1.4 Les autres moteurs de recherche et leur place actuelle
Comme il l'a été présenté précédemment, et même si Google est un acteur incontournable
de l'internet actuel, il reste important de s'intéresser aux autres moteurs de recherche existants, en
France comme à l'étranger. Nous l'avons vu, Google possédait en France près de 90% des parts
de marchés à la fin de l'année 2011 d'après AT Internet. Viennent ensuite Bing avec 3.3% de
parts de marché, Yahoo avec 1.5% et Orange avec 0.8% de parts de marché. Cette situation est
semblable dans une grande partie des pays d'Europe. Une domination de Google qui est loin de
disparaître.
Néanmoins, il est intéressant de regarder la situation dans les autres pays du monde, une situation
qui toute autre. En effet, aux Etats-Unis et dans d'autres pays du continent américain, même si
Google reste leader, les parts de marchés de la firme de Mountain View sont moindres, au profit
de Bing et Yahoo. Il convient de différencier cependant Bing et Yahoo qui sont certes, tous deux
des concurrents de Google, mais ce sont des acteurs de nature différentes. Yahoo est d'avantage
un portail plutôt qu'un moteur de recherche. Un portail peut se définir comme étant un "site qui
par son contenu (moteur de recherche, actualités, informations pratiques, météo,...) se veut un
point d'entrée incontournable sur internet et un carrefour d'audience11". Yahoo correspond
exactement à cette définition dans le sens où il va répertorié l'ensemble des services évoqués,
mais en y ajoutant en plus des outils similaires au leader Google : Webmail, Agenda... Quant à
Bing, de Microsoft, se positionne d'avantage en tant que concurrent de Google puisqu'il s'agit
d'un moteur de recherche. Il progresse de plus en plus en Etats-Unis qui connait la plus forte
évolution depuis son lancement d'après deux études des cabinets cabinets Comscore et Hitwise.
Au début de l'année 2011, Bing cumulait près de 27% des recherches effectuées aux Etats-Unis.
D'après l'étude Hitwise, "Bing bénéficie d'un taux de clics plus important que Google : 81 % des 11 Source - Définition Portail Internet - http://www.definitions-webmarketing.com/Definition-Portail-Internet
18
Antoine Pourron SEO White Hat et SEO Black Hat
recherches sur le moteur de Microsoft débouchent sur un clic, contre 65 % pour les requêtes
effectuées sur Google12". Bing cherche en effet à se différencier de Google, au lieu de lui
ressembler. C'est en cela que le moteur de recherche de Microsoft développe son algorithme pour
prendre plus en considération la localisation de l'internaute plutôt que son historique de
recherche. Malgré cette évolution, Bing reste à 4% de parts de marché dans le monde.
En Russie le moteur de recherche leader s'appelle "Yandex".
En Mars 2011, le moteur de recherche russe détenait environ
65% des parts de marchés 13des moteurs de recherche
présents dans le pays. Google arrivait en deuxième position avec seulement 22% de parts de
marchés.
Quand au continent asiatique, Google n'occupe pas non plus la place de leader dans la majorité
des pays. C'est le moteur de recherche "Baidu" qui est majoritaire comme par exemple en Chine,
avec entre 75 et 85% de parts de marché en 2010. Cependant, Baidu est loin d'avoir fait
l'unanimité dans les pays de la zone asiatique.
Les Etats-Unis sont toujours un modèle concernant le domaine d'internet. Le fait que Bing gagne
quelques parts de marchés sur Google va potentiellement changer les approches du
référencement et permettre de voir émerger de nouvelles techniques de SEO. En Europe, cette
situation n'est pas encore à l'ordre du jour. Bing à tout intérêt à se développer là où Google n'a
pas une position quasi-majoritaire. C'est pourquoi les stratégies de référencement ne sont que très
peu développées sur le moteur de recherche Microsoft, au profit du référencement Google.
Actuellement, Bing n'apporte que trop peu de visibilité à un site internet français ou francophone
pour s'y intéresser.
Nous allons maintenant nous pencher sur l'intérêt du référencement naturel pour les sites internet,
domaine encore en pleine expansion et indispensable a l'heure actuelle.
12 Source - Etude Hitwise et Le Monde Technologies - http://www.lemonde.fr/technologies/article/2011/02/11/bing-grignote-les-parts-de-marche-de-google-aux-etats-unis_1478441_651865.html13 Source - liveinternet.ru
19
Antoine Pourron SEO White Hat et SEO Black Hat
1.1.5 Le SEO, pourquoi ?
Être présent et indexé sur Google n'est pas une démarche difficile, puisqu'elle est
automatique. Nous l'avons dans les parties précédentes, Google scrute l'ensemble du web grâce à
des robots qui sillonnent toutes les pages de tous les sites internet, jours et nuits. Suite à cela,
l'algorithme de Google indexera ou non les pages en fonction de critères et leurs accordera un
positionnement dans les résultats de recherche. Un site créé de la façon la plus normale possible
(c'est à dire sans abus : Pas de caractères injurieux, racistes, violents, pornographiques) sera très
vite référencé sur le moteur de recherche.
Cependant, il ne suffit pas d'être référencer sur Google pour faire vivre un site internet sur le long
terme. En effet, un site internet référencé par exemple en troisième page de Google sur les mots
clés principaux de son activité n'aura aucune visibilité et que très peu de visites. Pour qu'un site
ou une page web soient rentables et pérennes, ils doivent être bien référencer, c'est à dire qu'il
doivent apparaître au minimum sur la première page des résultats de recherche sur les mots clés
caractéristiques du site.
Exemple : Un site de vente de lunettes en ligne devra se positionner sur des mots clés de
types "achat lunette", "achat lunettes", "achat lunettes en ligne", etc. En tapant ces mots
clés sur Google, l'objectif des stratégies de référencement est que ce site devra apparaître
dans les premières positions des résultats de recherche.
Une étude d'eye tracking des résultats Google réalisée en 2005 par Enquiro Research14 nous
montre, de manière claire et précise comment va réagir l'internaute sur la page de résultats suite à
une recherche et quel va être son sens de lecture :
14 http://enquiroresearch.com/
20
Antoine Pourron SEO White Hat et SEO Black Hat
15
Ici, il apparait très clairement que l'internaute va s'intéresser principalement aux 4 premiers
résultats affichés par Google. Si il trouve ce qu'il recherche, il se dirigera très rarement vers le
bas de cette première page, et encore moins en seconde page des résultats de recherche. Ce
comportement n'a que très peu évolué entre 2005 et aujourd'hui, même si de nouveaux éléments
se sont insérés dans les résultats de recherche depuis quelques années, comme les Actualités
Google, les vidéos ou bien les images. Cependant, il faut noter que ces nouveaux éléments
n'apparaissent que sur certains mots clés très recherchés, ce n'est pas le cas de tous.
Cette insertion de nouveaux éléments va changer de manière significative l'ordre de lecture des
résultats de recherche su Google. La même étude d'eye tracking réalisée par Enquiro Research,
cette fois ci en 2010, nous illustre ce changement de lecture :
15 Etude Enquiro Research Eye Tracking Google SERP 2005 - http://www.1ere-position.fr/blog/eye-tracking-recherche-universelle-et-sens-de-lecture-sur-une-page-de-resultats-google
21
Antoine Pourron SEO White Hat et SEO Black Hat
16
Sur cette nouvelle illustration, nous pouvons constater que l'ordre de lecture n'est plus verticale
comme sur une page de résultats de recherche où seuls des liens textuels apparaissent. Il est
également intéressant de voir que la première place dans les résultats n'a plus la même
importance lorsque de nouveaux éléments (types photos ou vidéos) sont intégrés sur la page. Les
internautes sont alors beaucoup plus attirés par les illustrations que par le texte, puisque c'est la
première chose qu'ils regardent (A). Afin de savoir si cette illustration correspond à ce qu'ils
recherchent vraiment, ils vont lire ensuite la description associées (B). C'est ensuite que les
internautes vont reprendre un sens de lecture vertical, en s'intéressant d'abord au premier résultat
fourni par Google (C) puis aux autres résultats situés sous l'illustration (S). De la même manière
que pour les pages de résultats sans illustration, plus l'on s'éloigne de la première position, plus le
taux de clics chute. Une étude sortie en Aout 2011 réalisée par Slingshot SEO17, entreprise
reconnue de référencement naturel, nous montre le fort écart qu'il existe en moyenne entre les
taux de clics sur la première page de résultats Google :
1ère position Google : 18.2% de taux de clics
16 Etude Enquiro Research Eye Tracking Google SERP 2010 - Livre blanc sur les moteurs de recherche - http://www.1ere-position.fr/blog/eye-tracking-recherche-universelle-et-sens-de-lecture-sur-une-page-de-resultats-google17 Source - Slingshot SEO - http://www.slingshotseo.com/resources/white-papers/google-ctr-study/
22
Antoine Pourron SEO White Hat et SEO Black Hat
2ème position Google : 10.05% de taux de clics
3ème position Google : 7.22% de taux de clics
4ème position Google : 4.81% de taux de clics
5ème position Google : 3.08% de taux de clics
8ème position Google : 1.75% de taux de clics
10ème position Google : 1.04% de taux de clics
Nous constatons qu'un site bien référencé est un site qui se situe entre la première et la cinquième
place des résultats de recherche Google, et même 4ème place. Pour qu'un site internet soit
référencer par un moteur de recherche, nous avons donc constaté qu'il s'agissait d'un processus
simple puisqu'il est automatique. Cependant, apparaître dans les premières positions des
résultats de recherche - lorsque les internautes tapent à un mot clé en rapport avec le site
internet à référencer - demande beaucoup plus de travail et de temps. C'est ici que prend source
tout l'intérêt du SEO des stratégies qui en découlent. Le SEO est un passage obligatoire pour
tous les sites internet souhaitant se développer.
La personne en charge du référencement naturel, aura donc pour but de positionner son site
internet ou bien une page de son site dans les premières positions des résultats de recherche.
C'est ainsi que le nombre de visiteurs augmentera et c'est ainsi que le site pourra être de plus en
plus rentable et pérenne. Mais, en milieu concurrentiel, cette démarche peut s'avérer difficile,
certains acteurs étant positionnés depuis plusieurs années sur les mots clés les plus tapés par les
internautes. Le référencement naturel est donc indispensable pour la survie d'un site, mais aussi
pour se positionner face à une concurrence qui devient de plus en plus importante sur internet.
Dans la partie suivante, nous allons nous intéresser aux différentes stratégies de référencement
naturel existantes, en détaillant tout d'abord les stratégies globales et stratégies de bases, pour
ensuite développer les stratégies mises en place par les professionnels en rapport avec les
évolutions des algorithmes Google de ces derniers années.
23
Antoine Pourron SEO White Hat et SEO Black Hat
1.1.6 Les stratégies et techniques SEO globales
1.1.6.1 Etudes préalables
Construire une stratégie de référencement naturel nécessite un réel travail en amont afin
de connaître toute les caractéristiques du marché et les caractéristiques web sur lesquelles un site
va être positionner. Cela doit être défini avant même la création du site internet, puisque les
rubriques à définir ainsi que les contenus insérés à l'intérieur des pages du site vont dépendre en
grande partie de la stratégie SEO. Plusieurs points seront à définir précisément pour ce travail en
amont d'un site dans un milieu concurrentiel :
1. Benchmarking : Etude des sites internet concurrents (organisation des contenus,
contenus), de leurs positionnements respectifs sur les moteurs de recherche, des pages qui
ressortent le plus dans les résultats de recherche, des mots clés sur lesquels les sites
concurrents ressortent le plus.
2. Mots clés : Etude et analyse des mots clés les plus tapés dans Google sur le thème du site
à référencer. Etude des tendances et évolutions des mots clés par rapport aux différentes
périodes de l'année et étude des synonymes par rapports à ces mots clés. En dégager une
liste de mots clés très concurrentiels mais indispensables, et une liste de mots clés
importants sur lesquels il est plus facile de se positionner. Grâce à cela, il sera possible de
définir plus facilement l'ensemble des rubriques du site internet.
3. Contenu : Mise en place d'une liste de contenus à organiser dans les rubriques définies
préalablement. Les contenus, en rapport direct avec la thématique traitée par le site
internet, devront être construit sur la base des mots clés définis dans les études
précédentes.
Afin de réaliser ce travail, internet met à la disposition des webmasters et des référenceurs un
certains nombre d'outils puissants et pour la majeure partie, gratuits. L'accessibilité de ces outils
est un avantage non négligeable sur internet, mais qui peut s'avérer être un inconvénient s'ils sont
également utilisés par la concurrence. C'est la raison pour laquelle les études réalisées en amont
de la construction d'un site internet doivent être parfaitement travaillées, en faisant attention à
24
Antoine Pourron SEO White Hat et SEO Black Hat
développer plusieurs axes stratégiques de référencement : Le premier sur des mots clés
également visés par la concurrence, le second dans un but de différenciation, mais toujours sur la
même thématique.
Concernant l'étude des sites concurrents, des mots clés utilisés et de leurs positionnement sur
les moteurs de recherche, plusieurs outils existent :
Majesticseo.com : Etude sur les liens de n'importe quel site internet : Nombre de sites
faisant un lien vers celui du concurrent avec classement des plus importants. Le site
calcul également le nombre de liens sortants du site concurrents.
Pagerank.fr : Permet de calculer la note accordée par Google à n'importe quel site
internet (Pagerank). L'outil va également détaillé le nombre de pages indexées dans le
moteur de recherche et le nombre de backlink (liens entrants).
Seoh.fr/audit-seo : Outil qui permet de réaliser gratuitement un audit de référencement
gratuit d'un site internet : principales balises de référencement, mots clés les plus utilisés,
principaux points à travailler pour optimiser le référencement.
Positeo.com : Cet outil permet de trouver le positionnement d'un site internet sur Google
sur un ou plusieurs mots clés. En y renseignant également des données de géolocalisation
et de langue, il est très simple de connaître la position d'un concurrent sur tout type de
thématiques.
De même, pour l'étude des mots clés sur lesquels il sera important de travailler pour le
référencement du site internet, de nombreux outils permettent de les définir très précisément.
Parmi les principaux, l'outil "Google Insight" est l'un des plus utilisés. Il va permettre de
calculer le nombre de fois qu'un mot clé est tapé sur Google tous les mois, par pays, région mais
aussi par date. L'outil fonctionne également avec l'analyse de plusieurs
mots clés afin de les comparer. Il sera alors possible de voir les
différentes tendances de chaque mot clé, lequel est le plus tapé ou bien
lequel à le plus d'influence à telle ou telle période de l'année. Enfin, l'outil développé par Google
vous propose une liste exhaustive de synonymes ou mots clés tirés de la même thématique avec
leurs pourcentages respectifs d'évolution.
25
Antoine Pourron SEO White Hat et SEO Black Hat
Au travers de ces différents outils, la création du site internet et sa stratégie de référencement,
dont les différents aspects vont être présentés dans les parties ci-après, vont pouvoir commencer
sur des bases solides en ayant pris connaissance du positionnement précis des concurrents sur les
moteurs de recherche.
1.1.6.2 Création, optimisation de contenu et maillage interne
Le point de base du référencement naturel est le contenu. En effet, c'est lui qui va en
premier lieux permettre à Google d'identifier un site internet comme traitant de tel ou tel sujet et
de le référencer sur des mots clés précis. Cependant, la seule présence d'un contenu de qualité
n'est pas un gage de bon référencement. Il est à la base d'un travail de fond et de moyen/long
terme pour augmenter peu à peu la position du site ou de la page internet sur le moteur de
recherche.
Tout d'abord, pour qu'un site internet se référence de manière plus rapide, il est nécessaire qu'il
ait un contenu de base de qualité, mais surtout que du contenu soit ajouté constamment sur le site
internet. En effet, les robots du moteur de recherche Google n'inspectent pas qu'une seule fois le
contenu présent. Ils reviennent de manière régulière afin de vérifier si le contenu est toujours de
qualité, s'il correspond toujours à la ou les thématiques pour lesquelles le site à été référencé, si
le contenu à subit des mises à jours, et s'il y a eu de nouveaux contenus sur le site internet. Plus
un site internet connait de modifications au niveau de son contenu (mises à jours ou ajout), plus
les robots Google vont revenir régulièrement. De nouveaux contenus de qualité (contenus
correspondant à la thématique du site à référencer, composés de mots clés très tapés par les
internautes) ajoutés régulièrement vont prouver à Google que le site est actif. Grâce à cela, le
moteur de recherche va progressivement faire gagner des positions à ce site internet dans les
résultats de recherche. Ce point est très important et va constituer un pilier dans la stratégie de
référencement.
Ensuite vient une partie d'optimisation des contenus. Cette étape est une stratégie propre au
référencement, dans le sens où il va s'agir de techniques de mise en valeur d'éléments à l'intérieur
des contenus du site internet. Cette optimisation se fait à plusieurs niveaux :
26
Antoine Pourron SEO White Hat et SEO Black Hat
Le titre des pages et titre des contenus : Pour chaque page et chaque contenu d'un site,
les titres sont très important pour Google, puisque c'est eux qui vont apparaître dans les
pages de résultats du moteur de recherche. Ces titres doivent donc être optimisés, c'est à
dire composés des mots clés principaux du contenu, mots clés sur lesquels le référenceur
cherche à positionner le site. Dans un titre optimisé, on trouvera le mot clé principal en
premier, accompagné ensuite de synonymes ou mots clés de la même thématique. Dans
une page internet, il existe plusieurs types de titres (qui doivent tous être différents mais
composés de mots clés semblables pour améliorer le référencement de la page) :
o Titre global de la page : Il s'agit de la "balise title" de la page, c'est à dire le texte
qui sera affiché sur les moteurs de recherche.
o Titre H1 (Header 1) : Titre principal affiché sur la page du site internet, censé
représenté le contenu aux internautes mais aussi aux moteurs de recherche
o Titre H2 : Sous titre qui vise à mieux structurer le contenu à l'intérieur de la page
web
o Titres H3 à H6 : Il s'agit de tous les types de sous titres que l'on peut insérer dans
une page internet pour prouver aux moteurs de recherche une organisation
structurée du contenu.
Balises de mise en avant : Optimiser une page web, c'est aussi attribuer aux mots clés
importants du contenu des balises pour indiquer aux moteurs de recherche de quoi traite
exactement le sujet. Ainsi, Google saura plus facilement référencer et positionner la page
par rapport à la thématique traitée. Il existe différents types de mises en avant de contenu
grâce à des balises HTML comme par exemple :
o Balise <strong> : Balise de mise en gras des mots clés importants de la page. Il
reste néanmoins important de ne pas en abuser pour éviter la sur-optimisation de
la page (sanctionner par Google, c'est à dire une perte de position de la page dans
les résultats de recherche).
o Balise <em> : Balise de mise en italique de certaines parties du texte de la page.
Mise à jours du contenu : Enfin, l'optimisation d'une page web passe par sa mise à jour
régulière, en y ajoutant de nouveaux contenus par exemple, ou en y ajoutant des
27
Antoine Pourron SEO White Hat et SEO Black Hat
illustrations, tels que des images ou des vidéos avec un texte associé. Google va ainsi voir
que la page continue d'être active.
La troisième et dernière partie de la stratégie de référencement d'un contenu d'un site internet est
le maillage interne, c'est à dire l'organisation du contenu. Ce terme correspond aux liens
hypertextes (liens cliquables) qui vont permettre de lier les différentes pages d'un site web entre
elles. Un maillage interne bien optimisé pour le référencement correspond à un ensemble de liens
logiques à l'intérieur d'un site. Comme nous l'avons vu dans les parties précédentes, lorsque les
robots Google inspectent un site internet, ils suivent l'ensemble des liens qui lient les pages.
Cette stratégie de maillage interne va donc permettre de créer des chemins entre des contenus de
même types et complémentaires, mais aussi entre les différentes rubriques présentes sur le site.
Cela améliore de manière significative le référencement d'un site ou d'une page web. Les liens
entre les pages d'un site interne sont de plusieurs formes :
Liens du menu : Liens visités en premier par les robots Google puisqu'ils arrivent en
premier dans le sens de lecture de la page. Les liens du menu ont pour objectifs de lier
logiquement les pages, pour guider plus facilement le visiteur, mais aussi les robots des
moteurs de recherche.
Liens à l'intérieur des contenus : Faire des liens dans les contenus de chaque page
permet à Google d'associer un lien à une thématique précise, puisque le lien sera entouré
de texte de qualité et optimisé, comme nous l'avons vu dans la partie précédente. Point
important, l'ancre (texte sur lequel se trouvera le lien) des liens doit être choisi avec
attention. Elle doit correspondre à un mot clé précis sur lequel la page souhaite se
référencer.
o Lien optimisé pour le référencement : "Retrouvez dans un deuxième article tout
ce qu'il faut savoir sur l'achat de lunettes sur internet"
o Lien non optimisé : "Pour tout savoir de l'achat de lunettes sur internet, cliquez
ici"
Liens de bas de page : Liens peu pris en compte par Google, ils serviront principalement
à rediriger l'internaute vers les parties principales du site internet.
28
Antoine Pourron SEO White Hat et SEO Black Hat
Ce premier aspect de la stratégie de référencement aura pour conséquence une amélioration des
positions des pages d'un site internet dans les résultats de recherche de Google.
1.1.6.3 Netlinking
Le deuxième aspect d'une bonne stratégie de référencement concerne la notion de
Netlinking, c'est à dire la mise en place d'une stratégie de liens entrants (backlink) et de liens
sortants.
Liens entrants (Backlinks) : Lien situé sur un autre site internet et qui pointe vers notre
site ou bien une page de notre site.
Liens sortants : Lien situé sur notre site pointant vers un site extérieur
Du point de vue du référencement et plus globalement, du point de vue de la visibilité d'un site
web sur internet, il est beaucoup plus intéressant d'avoir d'avantage de backlinks que de liens
sortants. Un site internet possédant de nombreux backlinks va être vu par Google comme un site
de référence, puisque de nombreux sites en parle et font des liens vers celui-ci. Google
accordera donc à ce site "de référence" de meilleures positions dans les résultats de recherche. Il
est néanmoins nécessaire de noter que les liens ont des poids différents du point de vue du
référencement :
Un lien à l'intérieur d'un contenu, entouré de texte en rapport avec les mots clés
principaux de notre site sera préférable à un lien seul.
Un lien dans une page bien référencée sur Google sera plus intéressante au niveau
référencement, qu'un lien sur une page peu référencée. De même, un lien sur une page
avec un fort Pagerank aura plus de poids qu'un lien sur une page à petit Pagerank.
Un lien en haut de page aura plus de poids qu'un lien situé en bas de page.
Dans la stratégie de référencement à mettre en place, il convient donc de réunir toutes ses
caractéristiques pour optimiser les backlinks fait par d'autres sites. Afin d'obtenir ce type de liens
qualitatifs et qui feront augmenter véritablement la position de notre site internet sur Google, il
existe de nombreux moyens différents. En voici quelques exemples :
Echange de liens : Un lien entrant en échange d'un lien sortant
29
Antoine Pourron SEO White Hat et SEO Black Hat
Partenariats : En échange d'un service, un site extérieur pourra faire un backlink vers
notre site.
Backlinks via des partages : Le meilleur moyen d'obtenir des liens entrants est de créer
des contenus intéressants, originaux et de très bonne qualité sur le site internet à
référencer. Le site gagnera en notoriété et sera de plus en plus vu comme un site de
référence dans la thématique qu'il traite. De nombreux sites feront peu à peu des liens
vers ce site, sans rien avoir à demander.
L'objectif est donc d'obtenir le plus de liens entrants possibles, et les plus qualitatifs possible, une
caractéristique que Google prend fortement en consécration dans son processus de référencement
des sites internet.
1.1.6.5 Suivi de la stratégie SEO
Une fois en place, une stratégie de SEO doit être suivie par le référenceur en charge du
positionnement du site internet sur les moteurs de recherche. En effet, ce travail va permettre de
savoir si la stratégie fonctionne, si les pages du site internet gagnent ou perdent des positions sur
Google par rapport aux concurrents, mais surtout de savoir si la stratégie est bonne ou si il est
nécessaire de la changer ou de l'adapter.
Les mêmes outils présentés précédemment pour le travail de mise en place de le stratégie de
référencement serviront également pour cette partie. Les outils utilisés pour analyser le
référencement et le positionnement des concurrents pourront
aussi servir à l'analyse de notre site. Il existe d'autres moyens
très intéressants et indispensables pour se rendre compte de
l'efficacité d'une stratégie de SEO, chiffres et statistiques
disponibles uniquement si le site web nous appartient. L'un de ces outils est "Google Analytics".
Sur ce site internet mis à disposition gratuitement par Google aux webmasters et référenceurs, il
va leur être possible d'analyser tous les chiffres inhérents au site sur lequel ils doivent travailler :
Nombre de visites par jour, par mois, par an, nombre de visiteurs unique, nombre de pages vues
30
Antoine Pourron SEO White Hat et SEO Black Hat
par visites, durée moyenne de la visite, les différentes sources de trafic, les contenus les plus
visités, les sites référents les plus importants, les mots clés principaux tapés pour arriver sur le
site, etc. Via cet outil, il va être possible de croiser les données pour affiner le travail de
référencement réalisé sur le site. Connaître le nombre de visiteurs d'île de France ayant visité un
page précise du site sera par exemple possible. Ainsi, grâce à cette analyse des données, le
référenceur va pouvoir prendre un certain nombre de décisions importantes. Il va par exemple
pouvoir décider de travailler plus particulièrement sur un mot clé plutôt qu'un autre, si ce dernier
apporte moins de visites que le premier.
Il existe également des outils de suivis payants disponibles sur les sites ranks.fr ou bien
Yooda.com, outils qui vont proposer un certain nombre d'analyses supplémentaires par rapport à
Google Analytics :
Ranks : Système qui analyse de manière automatique l'évolution du référencement d'un
site. Il est nécessaire de renseigner au préalable les mots clés sur lesquels le site se
positionne et l'URL (adresse web) du site. L'outil fera en tant réel une analyse de
l'évolution des positions des pages du site internet par rapports aux mots clés renseignés.
Des analyses annexes viennent apporter un avantage à cet outil, comme un synthèse
globale de la visibilité du site (nombre de backlinks, nombres de pages indexés), un suivi
précis des concurrents et des sites leaders du marché.
Yooda : Cet outil propose sensiblement les mêmes services que "Ranks.fr", à la
différence qu'il s'agit d'un logiciel et non d'un site internet. Le premier logiciel permet de
faire un audit de son site internet et d'analyser très précisément le référencement
(évolutions des positions Google tous les jours en fonction des mots clés sur lequel le site
souhaite se positionner, évolutions des parts de marché du site sur Google). Le second
logiciel, un peu moins important, permet de référencer automatiquement un ou plusieurs
sites internet dans des annuaires de référencement.
Les positions sur Google changent très souvent. L'analyse des données du site internet est donc
un travail de tous les jours, un travail d'adaptation pour optimiser toujours plus le
référencement.
31
Antoine Pourron SEO White Hat et SEO Black Hat
1.1.7 Les stratégies et techniques SEO actuelles
Après avoir analysé les différentes techniques de base du référencement naturel d'un site
internet sur les moteurs de recherche, il convient de s'intéresser aux dernière techniques mises en
place, qui ont été testées et développées par les professionnels du secteurs en fonction des
évolutions de l'algorithme Google.
Tout d'abord, l'un des derniers changements apporté à cet algorithme est la prise en compte de
plus en plus importante des réseaux sociaux et des interactions qu'il peut y avoir entre les
utilisateurs. En effet, les réseaux sociaux se sont développés de manière exponentielle depuis les
années 2006 et 2007. Google, au travers des mises à jour de mode de référencement des sites
internet, a donc progressivement donné de l'importance à cet aspect social. Cela lui a également
permis de mettre en avant peu à peu son réseau social : Google Plus. Aujourd'hui, des éléments
des réseaux sociaux Twitter et Google plus apparaissent dans les pages de résultats Google, afin
de guider plus facilement le visiteur en fonction des pages qu'ont pu visiter ou "aimer" leurs
contacts issus des réseaux sociaux. Partant de ce constat, les professionnels du référencement
optent depuis plusieurs années pour l'insertion de boutons de partages (pour
les différents réseaux sociaux) dans les pages des sites internet. Plus une page
internet ou plus un contenu sont partagés sur les réseaux sociaux, plus ils seront
référencés dans les pages de résultats de Google. Ils gagneront ainsi des
positions par rapport à la concurrence. De même, un contenu provoquant de
nombreuses interactions sur les réseaux sociaux (commentaires d'utlisateurs, "likes" sur
facebook, "retweet" sur Twitter, "+1" sur Google plus...) gagnera des positions sur les moteurs de
recherche. La mise en place d'une stratégie sur les médias sociaux (appelée plus communément
Social Media Optimization - SMO) devient aujourd'hui presque aussi important qu'un stratégie
de référencement, avec l'avantage non négligeables qu'elles sont complémentaires.
Ensuite, après un ensemble de test réalisés ces dernières années, les professionnels du SEO ont
également mis en avant une stratégie de Netlinking optimale (stratégie de liens comme
présentée dans les parties précédentes) qui semble fonctionner pour développer les
référencement naturel d'un site et lui faire gagner des positions dans les moteurs de recherche :
32
Antoine Pourron SEO White Hat et SEO Black Hat
Sur le schéma18 représenté ci-contre, nous
pouvons constater qu'il s'agit d'un stratégie
de netlinking en 3 étapes, ou 3 paliers. Le
"site cible" (site à référencer) est entouré de
3 éléments distincts correspondants à 3
différents médias internet (Les réseaux
sociaux, les Blogs et les sites de contenus
gratuits tels que les annuaires ou bien les
sites internet de communiqués de presse).
Cette stratégie consiste à créer un ensemble
de liens de 3ème niveau en provenance de
sites externes. Ces liens ne pointeront
jamais directement vers le site internet à
référencer, ils pointeront vers des contenus
de Blogs, des pages d'annuaires ou
communiqués de presse ou des pages Fans
sur les réseaux sociaux. Ces 3 éléments
seront des intermédiaires de deuxième
niveau qui auront pour but de promouvoir le site cible. Des liens seront placés dans des contenus
optimisés pour le référencements sur ces 3 types de sites web. Ils pointeront tous vers un seul et
même site internet, le site cible.
Cette stratégie vise à montrer à Google que le site cible est présent sur internet sur de
nombreuses plateformes différentes, qu'il y a de l'interaction autour de lui et que de nombreux
sites externes en parlent. A moyen terme, cette stratégie de netlinking aura pour effet un meilleur
positionnement du site à promouvoir sur les moteurs de recherche.
18 Source - Presse Citron, Février 2011 - http://www.presse-citron.net/seo-les-dernieres-techniques-americaines-pour-faire-exploser-votre-trafic
33
Antoine Pourron SEO White Hat et SEO Black Hat
1.2 LE RÉFÉRENCEMENT ILLÉGAL - SEO BLACK HAT
1.2.1 Qu'est ce que le SEO Black Hat ?
Le SEO black hat est apparu au même moment que les stratégies de référencement
naturel, puisqu'il s'agit d'un mode de fonctionnement dérivé. "Une pratique dite black hat SEO
est une technique de référencement naturelle considérée come discutable, non éthique et / ou
punissable par les moteurs de recherche ou les professionnels du référencement19". Tout comme
le SEO "white hat", c'est à dire les stratégie de référencement naturel évoqués dans les
précédentes de ce mémoire, son seul objectif est de tout mettre en œuvre pour positionner un site
internet ou une page internet en première position des résultats des moteurs de recherche.
Google étant le moteur de recherche omniprésent en France, et en grande partie à l'international,
les professionnels du référencement analysent régulièrement toutes les évolutions de son
algorithme afin de savoir précisément comment il fonctionne et quelles techniques ils peuvent
mettre en place. L'objectif est ici de décortiquer toutes les facettes du moteurs de recherche pour
savoir comment référencer un site internet de toutes les manières possibles. C'est d'ici que
naissent les différentes techniques de référencement. Ces techniques sont ensuite très vite
partagées auprès de la communauté mondiale des professionnels du référencement, via les
réseaux sociaux ou les blogs. L'ensemble de processus est très rapide.
Il en va de même pour les techniques SEO black hat, avec une ampleur tout de même moins
importante, puisque ces techniques demandent une expertise issus du SEO white hat, mais aussi
de nombreuses connaissances dans le SEO black hat. De plus, ces techniques sont caractérisées
de black hat (chapeau noir) dans le sens où elles sont définies comme "non éthiques" ou "sales".
Leur but est simple : "Booster sévèrement le référencement, au risque d'être puni par la suite par
Google20". Parallèlement, le SEO black hat a également pour objectif de travailler sur la
19 Definition Black Hat SEO - Définitions-webmarketing.com - http://www.definitions-webmarketing.com/Definition-Black-hat20 Définition Black Hat SEO - nikopik.com - http://www.nikopik.com/2012/04/le-black-hat-seo-resume-en-une-infographie.html
34
Antoine Pourron SEO White Hat et SEO Black Hat
concurrence, en faisant en sorte que les sites concurrents perdent des positions sur les moteurs de
recherche, au profit du site ou de la page à référencer. Le SEO black hat consiste à tromper
Google dans son processus de référencement des sites internet, via un ensemble de techniques
que nous allons voir dans les parties suivantes. Encore aujourd'hui, les professionnels du secteur
n'ont pas de définition exactes du black hat, puisque les limites de ses techniques ne sont pas
mesurables et divergent selon les secteurs d'activités et bien d'autres critères. La limite entre
white hat et black hat fait souvent débat. Cependant, la tendance globale du référencement black
hat reste connue.
Kévin Richard, dirigeant de l'agence de référencement Cultivaref et également professionnel
reconnu du référencement naturel a dominante black hat, nous résume précisément ce qu'est le
SEO black hat : "Pour un black hat, les trois business models sont de faire augmenter le trafic
d'un site pour vendre son propre produit, vendre le produit des autres (affiliation) et faire cliquer
les internautes sur les publicités21". Dans cette approche, il ne prend pas en compte tous les
dérivés de ces techniques, tels que l'introduction dans des systèmes informatiques ou la
récupération de données de site en vue de les revendre... Plus simplement, il explique que le
modèle du black hat22 est :
"D'obtenir du trafic (de manière borderline)"
"De monétiser ce trafic (de manière borderline)"
Il terme sa définition en expliquant que le terme de "SEO black hat" est "restrictif puisqu'il
n'englobe pas les cas cités précédemment, qu'il s'agit plutôt de black hat marleting". Dans une
interview accordée au site internet visibilitere-ferencement.fr, il résume les techniques black
hat comme "tout SEO contraire aux guidelines de Google23". Les guidelines sont des pages où
Google va expliquer aux internautes, et plus particulièrement aux référenceurs, comment
référencer correctement un site internet et quelles sont les bonnes manières de faire.
Intéressons-nous désormais au réel intérêt de ces techniques dites "non étiques" et pourquoi elles
sont utilisées.
21 Définition Black Hat par Kévin Richard - http://www.deliciouscadaver.com/comment-definir-le-black-hat.html22 Définition Black Hat par Kévin Richard - http://www.deliciouscadaver.com/comment-definir-le-black-hat.html23 Interview Kévin Richard pour visibilite-referencement.fr - http://www.visibilite-referencement.fr/blog/black-hat-seo-512banque
35
Antoine Pourron SEO White Hat et SEO Black Hat
1.2.2 Pourquoi utiliser le SEO Black Hat ?
1.2.2.1 Être visible et référencé rapidement
Nous avons analysé dans les parties précédentes que les stratégies de référencement
naturel ont pour objectif de référencer un site ou une page internet dans les premières positions
des résultats de recherche de Google, en fonction des mots clés sur lesquels le site ou la page
souhaitent se positionner. Les techniques de SEO black hat vont avoir en partie la même
finalité, mais avec la spécificité de le faire plus rapidement si elles sont maitrisées.
Une entreprise, ou de manière plus générale un site internet en milieu concurrentiel (site en
lancement ou site avec déjà de l'ancienneté), se doivent d'avoir un bon référencement sur le
secteur dans lequel ils évoluent, dans le sens où c'est un gage de sécurité sur le moyen/long
terme, de rentabilité, de visibilité et position intéressante par rapport à la concurrence. Cette
situation d'être dans les premières positions des pages de résultats de recherche est donc
tellement importante que les sites internet n'ont qu'un seul objectif : apparaître le plus rapidement
possible à ce niveau de positionnement sur Google. Nous l'avons détaillé précédemment, la mise
en place de telles stratégies nécessite à fort travail en amont, prend du temps avant d'être effectif,
prend du temps à être pris en compte par Google, et nécessite enfin un travail de suivi au jour le
jour.
Avec les techniques de référencement black hat, il va être possible de réaliser cette démarche
beaucoup plus rapidement, mais surtout de l'automatiser, au travers de techniques que nous
détaillerons dans les parties suivantes. Les entreprises et les sites internet évoluant dans un
secteur concurrentiel (d'un point de vue du référencement, secteur où il est difficile de se
référencer dans les premières positions sur Google) vont donc parfois opter pour ses stratégies
black hat peu éthiques dans le but d'améliorer leur positionnement Google d'avantage à court
terme. Un travail va donc être réaliser sur le site cible à référencer, au niveau de nombreux
éléments : contenus, publications, netlinking mais aussi optimisations, automatisations et
protections.
36
Antoine Pourron SEO White Hat et SEO Black Hat
1.2.2.2 Dépasser ses concurrents
Parallèlement, le référencement black hat va également influer sur le positionnement des
concurrents, de manière beaucoup plus directe qu'un référencement naturel dit "white hat". Tous
les sites internet n'utilisent pas les techniques black hat et c'est dans ce sens qu'un site va pouvoir
faire la différence par rapport à la concurrence. L'utilisation du SEO Black hat reste peu
développé dans une grande partie des secteurs, il sera donc possible de positionner un site plus
facilement dans les première position d'un moteur de recherche.
Là où les sites vont pouvoir faire une réelle différence dans le développement de ce type de
référencement est dans le degré d'utilisation du black hat. Il existe en effet des techniques de
bases, et des techniques avancées. Ces dernières seront proposées par le référenceur en fonction
des objectifs de positionnement du site internet : Cela peut être la rapidité du référencement
(court ou moyen terme) mais aussi la position choisie sur les moteurs de recherche (1ère place,
entre la 1ère place et la 5ème place, 1ère page, etc.). Les moyens (financiers) mis à disposition
du référenceur par le site internet ou l'entreprise est également un facteur important à prendre en
compte. En effet, à la différence du référencement naturel "white hat" qui peut être réalisé avec
des connaissances de bases et donc par une personne qui n'est pas un expert, le SEO black hat
demande quant à lui beaucoup plus de techniques, de compétences et de connaissances du web.
De plus, ce type de techniques issues de la partie "sombre" du référencement, est maitrisé par
une minorité en France comme à l'étranger. Les référenceurs black hat sont rares, donc plus cher.
Moins de 50 personnes en France sont experts dans ces stratégies black hat . C'est la raison
pour laquelle ils évoluent dans des secteurs très concurrentiels, où les enjeux financiers peuvent
être très importants et où les entreprises peuvent investir fortement dans ce type de
techniques : Secteur du X, du poker, de la fourniture pharmaceutique, du forex, des paris sportifs,
des produits haut de gammes...
Si une entreprise choisi d'utiliser le SEO black hat pour référencer son site internet à de
meilleures positions que ses concurrents (qui eux aussi l'utilisent potentiellement), il sera
nécessaire qu'il soit mieux développé, plus travaillé et plus poussé. Cependant, cela va dépendre
37
Antoine Pourron SEO White Hat et SEO Black Hat
de nombreux critères que nous allons développés, et l'entreprise devra définir avec le référenceur
jusqu'à quel point elle souhaite aller dans ce référencement non éthique.
1.2.3 Les techniques et stratégies SEO Black Hat
1.2.3.1 L'Automatisation
L'automatisation est l'une des principales caractéristiques du référencement black hat. La
majorité des professionnels du référencement pense qu'une fois cette étape d'automatisation
franchie, il ne s'agit plus de SEO comme il l'est préconisé dans le guide du référencement de
Google. Cette automatisation s'opère à de nombreux niveaux dans le processus de référencement
d'un site ou d'une page internet :
1. La création de contenus : Nous avons vu dans les parties précédentes que le contenu est
la base du SEO, puisque c'est lui qui va permettre à Google de positionner et référencer
un site dans une ou plusieurs catégories, en fonction des mots clés insérés dans les
contenus. Nous avons également détaillé le fait que plus il y a de contenus optimisés ou
plus il y a de mises à jours sur un site, plus une page va gagner des positions dans les
pages de recherche. Avec le black hat, et via des logiciels spécifiques, il va être possible
de créer des contenus générés facilement et automatiquement, composés des mots clés
sur lequel le référenceur souhaite se positionner. Cette technique est plus communément
appelé "content spinning". Pour cela, il suffit de créer un texte spécifique composé
d'autant de synonymes possibles pour chaque mot du texte, le logiciel en ressortira des
textes uniques et différents, mais tous constitué des mots clés spécifiés24. Il existe de
nombreux logiciels permettant de réaliser du content spinning, qu'ils soient gratuits ou
payants.
2. La création de "mini-sites" / blogs : De même, des logiciels existent pour créer
automatiquement des sites ou des blogs par centaine afin d'y déposer un contenu. De
nombreuses plateformes sur internet permettent de créer gratuitement des sites/blogs. Au
lieu de les créer un par un pour construire une stratégie de Netlinking (comme vue en
première sous partie de ce mémoire) ou link-building, ces logiciels vont les créer
24 Exemple de content spinning en Annexes. Page.
38
Antoine Pourron SEO White Hat et SEO Black Hat
automatiquement. Parmi les plateformes les plus connues se trouvent Wordpress, Joomla,
Blogger, Tumblr, Blogspot...
3. La mise en ligne de contenus : Certains logiciels très développé de SEO black hat vont
permettre de mettre en ligne automatiquement l'ensemble des contenus créer
préalablement. Ces logiciels vont créer une liste de centaines ou milliers de pages internet
sur lesquels il est possible de poster un contenu (généralement il s'agit de plateforme
gratuites de blog comme les plus connues : Wordpress, Blogger ou encore Tumblr). Le
logiciel va calculer la puissance de chaque page au niveau du référencement (Pagerank
Google) afin de savoir sur quelles pages il est le plus intéressant de déposer un contenu.
Le référenceur pourra ensuite sélectionner le nombre de sites/blogs sur lesquels déposer
les contenus créés en affinant les critères des pages (Pagerank, publicités ou non sur les
sites, sites avec ou sans contenu,...). Le logiciel publiera ensuite de façon automatique
tous les contenus en fonction des chois du référenceurs.
4. Intégration de liens dans les contenus : Toujours dans cette même démarche, le
référenceur va choisir d'insérer des liens à l'intérieur des contenus générés. Ces liens
auront naturellement des ancres différentes et variables selon les contenus. C'est l'unique
intérêt de cette technique. Les liens, pointant tous vers des sites internet qui auront
comme but de promouvoir le site à référencer (cf. schéma en partie 1.1.7), montreront à
Google que de nombreux sites internet et de nombreuses pages parlent du "site cible".
Ainsi, le référencement de ce dernier augmentera de façon significative.
5. La création de commentaires : Appelée également "spamdexing25", cette technique vise
à créer des commentaires en très grande quantité sur tous les sites permettant le dépôt de
commentaires. Il s'agit généralement de blogs. Le référenceur va choisir une liste
prédéfinie de blogs/sites en rapport avec la thématique du site internet à référencer afin
d'y déposer des commentaires uniques (Google sanctionne le copié collé) et variable. A
l'intérieur de ces commentaires seront insérés des liens qui pointeront indirectement (ou
directement) vers le site à référencer. Cela augmentera considérablement le nombre de
backlinks vers le site cible. Des logiciels de SEO black hat permettent donc réaliser ce
type de démarche automatiquement, avec une autre spécificité de taille : Ces logiciels 25 Définition Spamdexing par dicodunet.com : Tentative de spam spécifiquement orientée vers les moteurs de recherche. Exemple : tenter de positionner dans les premières positions des résultats d'un moteur des pages non pertinentes par rapport au mot clé choisi.
39
Antoine Pourron SEO White Hat et SEO Black Hat
vont sélectionner pour le référenceur les plateformes où les commentaires sont
uniquement en "Do-follow26".
De manière générale, les logiciels de SEO black hat permettent de réaliser l'ensemble de ces
étapes. D'autres ne vont prendre en compte que le content spinning par exemple. Parmi les
logiciels d'automatisation black hat, voici les plus connus : Link Farm Evolution, plus
communément appelé "LFE", qui va permettre notamment la création de blog qui n'ont qu'une
utilité : le spamdesing. Le logiciel va permettre de passer outre les mesures de sécurité mises en
place par les plateformes de blog, bloquant généralement les créations automatisées. Les autres
outils27 connus de référencement black hat sont :
Scrapebox : Logiciel de "scraping28" en vue d'une stratégie de link-building.
SEnuke : Logiciel black hat netlinking et link-building.
X-Rumer : Logiciel black hat netlinking et link-building.
1.2.3.2 La Manipulation
L'une des principales caractéristiques du référencement black hat est la manipulation, qu'ils
s'agissent de la manipulation des internautes, des webmasters ou bien des moteurs de recherche.
Cependant, ces techniques nécessitent d'avantages de connaissances web que pour les techniques
présentées dans la partie précédente. Les techniques sont de plusieurs natures et vont avoir une
influence à divers niveau du processus de référencement d'un site ou d'une page internet :
Utilisation des positions CSS sur les pages web : Dans la construction d'un site internet,
le CSS est le code qui permet la disposition des éléments du site sur la page, comme la
verra l'internaute. Les propriétés vont permettre de placer les éléments de gauche à droite
et de haut en bas via des données coordonnées positives par rapport à la gauche et au haut
du site. Le CSS permet cependant de placer des éléments via des coordonnées négatives,
26 Do-Follow : Terme technique de référencement qui signifie qu'un lien insérer dans un commentaire sera suivi, pris en compte et référencé par les moteurs de recherche. Un lien non pris en compte par les moteur de recherche sera un lien No-Follow.27 Présentation SEO Blackout - http://www.seoblackout.com/2010/06/21/smx-paris-2010/28 Scraping (définitions-webmarketing.com) : "L’URL scraping est une technique de collecte automatisée d’URL sur un site ou un ensemble de sites qui est souvent utilisée à des fins de black hat SEO".
40
Antoine Pourron SEO White Hat et SEO Black Hat
c'est à dire des éléments qui seront en dehors de la page vue par l'internaute. Néanmoins,
les robots des moteurs de recherche verront ces éléments et les référencerons. La
technique consiste donc à placer des éléments (contenus la plupart du temps) avec un
ensemble de mots clés importants pour le référencement du site, en dehors du champ de
vision de l'internaute.
Referer Spamming : Dans le cadre du référencement, le referer est le site internet qui va
amener un internaute vers un autre site. Une technique de SEO black hat consiste à
modifier ce referer automatiquement via les options du navigateur internet afin de créer
un spam de visites. Le site visé par ce referer spamming verra dans ses statistiques de
nombreuses visites en provenance d'un site referer (dont l'adresse sera automatiquement
transformée pour promouvoir le site que nous souhaitons référencer). Des backlinks
seront automatiquement créés sur les sites de statistiques, et cela pour conséquences de
faire monter le positionnement du site à référencer.
Le cloaking : Il s'agit également d'une technique dont la mise en place va avoir lieu dans
le codage du site (partie non visible par l'internaute). Cette démarche nécessite de très
bonne connaissance en codage et en maitrise de l'outil interne puisqu'elle va avoir une
influence entre l'adresse IP de l'internaute et le contenu affiché sur le site internet. Il va
ainsi être possible de créer une seule page internet avec des versions différentes. L'une
des versions sera par exemple réservée aux robots des moteurs de recherche, avec à
l'intérieur de nombreux éléments pour mettre en avant les mots clés en vue d'un meilleur
référencement. L'autre version sera réservée aux internautes, qui ne verront pas ce type
d'éléments.
L'achat de lien : Certains acteurs du référencement black hat vont parfois être amené à
acheter des liens (en vue de créer des backlink pour améliorer le positionnement du site à
référencer) sur des sites de qualités et des sites puissants du point de vue du
référencement. Cette démarche est naturellement manuelle, il est impossible de
l'automatiser puisqu'il s'agit d'un rapport entre deux êtres humains. Elle permet d'apporter
un aspect qualitatif à la stratégie de SEO. Cependant, il s'agit d'une technique de
manipulation qui vise à tromper Google. Le lien acheté sur un site internet ne sera pas
"naturel).
41
Antoine Pourron SEO White Hat et SEO Black Hat
Ces différentes techniques de manipulation issues du référencement black hat ne sont pas les
seules. De nombreuses autres stratégies, souvent beaucoup plus techniques, existent et
nécessitent une réelle expertise.
1.2.3.3 La sécurité
Les techniques vues précédemment, et de manière générale l'ensemble des techniques de
référencement SEO, sont des stratégies peu éthiques et qui parfois vont concurrencer
illégalement les autres sites internet. C'est la raison pour laquelle les référenceurs SEO doivent
faire en sorte que leurs travaux soient discrets, sécurisés et protégés, d'une part par rapport à
Google, d'autres parts par rapports aux sites concurrents. Différents moyens le permettent, parmi
les principaux, nous avons :
IP et proxy29 changeants : Adresses d'un ordinateurs ou d'un serveurs web qui ne vont
jamais être identique pour un même utilisateur. Cela permet de ne jamais retracer
l'origine d'une action sur internet, et de faire passer une action comme provenant de
plusieurs utilisateurs au lieu d'un seul, aux yeux de Google. Technique nécessaire pour
toutes stratégies de spam par exemple.
Balise <head> et propriété "noarchive30" et robots.txt : La propriété "noarchive" est à
insérer dans le code d'un site internet pour empêcher les robots des moteurs de recherche
d'enregistrer la page. Cela va en grande partie permettre de cacher les mauvaises
pratiques black hat mises en place sur un site internet. Utiliser le fichier robots.txt d'un
site internet va permettre quant à lui d'interdire aux robots Google l'indexation de
certaines pages web, où se trouvent des codes/scripts en vue d'une utilisation black hat
par exemple.
Aucuns liens avec Google : Les référenceurs black hat font attention à ne jamais créés
des liens trop proches avec Google depuis le sites qu'ils essayent de référencer, afin de ne
fournir aucune information au moteur de recherche sur des pratiques douteuses : Eviter
29 Proxy (par futura-sciences.com) : "Unique machine d'un réseau local connectée à l'internet et effectuant les requêtes internet pour les autres ordinateurs du réseau, comme demander une page web".30 Seoland.fr - la propriété "noarchive" - http://www.seoland.fr/moteurs-de-recherche-referencement-et-droits-d%E2%80%99auteurs/
42
Antoine Pourron SEO White Hat et SEO Black Hat
l'insertion de codes Google Analytics (pour suivre les statistiques du site), Google
Adsence (régie publicitaire de Google), Google sites maps, etc.
Aucuns liens entre plusieurs "sites cibles" : Les référenceurs travaillent pour la plupart
sur le positionnement de plusieurs sites internet, qu'ils soient de la même thématiques où
non. Ces professionnels conseillent vivement de ne jamais créer de liens entre les sites à
référencer, afin que Google ne décèle jamais le mise en place d'une stratégie black hat
similaire entre ces sites. Les "sites cibles" doivent donc avoir chacun une stratégie
indépendante.
1.2.3.4 Les dérives et abus
Les différentes techniques présentées précédemment ont une influence positive sur le
positionnement et le référencement des sites internet, si elles restent raisonnables. En effet, cette
influence va dépendre en grande partie du degré d'utilisation de ces techniques, de l'ancienneté
mais aussi des antécédents du site internet. D'après un retour des professionnels français du
référencement black hat31 :
Un site internet déjà implanté et ancré sur internet depuis plusieurs années pourra
d'avantage utiliser les techniques black hat qu'un site âgé de quelques mois.
Un site internet sans antécédents (sanctions de la par de Google : désindexation, baisse
plus ou moins importante de positions...) pourra plus facilement s'intéresser au
développement d'une stratégie black hat
Un site internet qui comptabilise de milliers de visites par jour pourra plus facilement
faire du référencement black hat qu'un site avec pu de visites.
Le référencement black hat doivent être pris avec beaucoup de recul et se lancer dans ce type de
stratégie doit faire l'objet d'une sérieuse étude et réflexion. Cependant, il existe des abus dans le
SEO black hat dont notamment l'attaque directe, pure et simple d'un concurrent. L'un des
meilleurs exemples serait celui de l'aspiration de site. Google puni très sévèrement le copier
coller de contenu entre les sites. Cette technique vise donc à copier coller entièrement un site
internet (contenu, design...) dans le but de lui faire perdre de nombreuses positions dans les
31 Conférence Seosphère - Paris - Décembre 2010
43
Antoine Pourron SEO White Hat et SEO Black Hat
moteurs de recherche. Avant que le site visé s'en rende compte, il se sera écoulé plusieurs jours
voir plusieurs semaines, et aura ainsi perdu de nombreuses visites. Ce type d'abus, tout comme
de nombreux autres, sont très vite sanctionnés.
1.2.4 SEO Black Hat, législation et sanctions
1.2.4.1 Illégalité du SEO Black Hat par rapport aux CGU
Nous l'avons présenté dans les parties précédentes, le SEO black hat est un ensemble de
techniques peu éthiques et surtout contraires au règlement de Google. Développer un
référencement sur le black hat comporte donc des risques que nous allons développés ci-dessous.
Tout d'abord, du point de vue de Google, les sanctions peuvent être multiples et avoir des
conséquences très importantes pour les sites internet qui travaillent sur un référencement black
hat. Les sanctions peuvent être en premier lieu de nature manuelles. Google, dans sa stratégie de
limiter de plus en plus les pratiques black hat, a mis en place une plateforme appelée "outils pour
les webmasters" avec une partie "spam report". Depuis cette plateforme, il est possible pour tout
internaute de dénoncé à Google une pratique black hat qu'il a pu voir ou subir. Suite à cela,
Google mène une enquête et prend une décision. Si Google juge que le site dénoncé utilise des
techniques de black hat (duplicate content32, spamdexing,...), le site se verra sanctionné de
plusieurs manières possibles :
Forte perte de positions d'une ou plusieurs pages du site sur les pages de résultats de
recherche Google. Cette sanction est temporaire.
Forte perte de positions de l'ensemble du site sur les pages de résultats de Google
Désindexation des pages du site présentant des techniques black hat
Désindexation totale du site internet
Ce type de sanctions peuvent également être automatiques puisque, comme nous l'avons vu
dans les parties précédentes, Google met constamment à jour sont algorithme pour déceler ces
32 Duplicate content : terme utilisé en référencement correspond à un simple copié collé de contenu
44
Antoine Pourron SEO White Hat et SEO Black Hat
pratiques contraire à son règlement. C'est ainsi que de nombreux sites ayant basé une grande
partie de leur stratégie de référencement sur ces techniques black hat ont vu leurs pages baisser
en position sur Google, voir même disparaître.
De telles sanctions peuvent être catastrophiques pour un site internet, ou pour une entreprise. La
désindexation de pages peut être la cause d'une perte financière considérable. Lors des dernières
mises à jours de l'algorithme Google, certaines entreprises ont même du fermer. C'est la raison
pour laquelle il est nécessaire d'être très prudent avec ce type de pratiques, même si elles peuvent
être source de forts gains à court terme. Elles restent tout de même risquées.
Le SEO black hat est donc une stratégie gagnante, mais dangereuse.
45
Antoine Pourron SEO White Hat et SEO Black Hat
1.3 PROBLÉMATIQUE ET HYPOTHÈSES
Suite à cette partie théorique et exploratoire, nous avons réalisé un état des lieux et
analyser ce que sont les différents types de référencement, leurs caractéristiques, leurs forces,
leurs faiblesses et les intérêts respectifs pour les sites internet et les entreprises par rapport aux
moteurs de recherche, en particulier Google. Le SEO white hat va permettre d'apporter un
référencement de qualité sur du moyen et long terme dans un milieu concurrentiel, et un
positionnement qui s'avère être indispensable pour qu'un site interne devienne rentable et
pérenne. De son côté, le SEO black hat, développé en deuxième sous partie, va être un ensemble
de techniques contraire aux directives de Google mais qui vont permettre à un site internet de se
référencer rapidement, sur le court terme, dans un secteur à forte concurrence. Ces stratégies
black hat demandent beaucoup plus de maitrises des techniques et outils du web, et un
investissement financier important, mais peuvent être
sources de forts revenus, plus rapidement que via un
référencement naturel white hat. Cependant, et comme
nous l'avons vu en fin de première partie de ce mémoire,
le référencement black hat comportes des dangers et des
risques pour les sites internet et entreprises qui utilisent
ces techniques.
Il convient alors de se demander comment optimiser le SEO dans un milieu concurrentiel, alors
que le SEO Black Hat apparaît comme plus productif pour les entreprises, mais risqué ?
Plusieurs hypothèses répondant potentiellement à cette problématique peuvent alors être
dégagées, hypothèses qui seront à la base de l'étude terrain de ce mémoire de recherche :
La première hypothèse serait de travailler sur l'élaboration de techniques dites "grey
hat33", c'est à dire des stratégies reprenant certaines techniques positives issues du
33 Illustration "grey hat" par http://blog.axe-net.fr
46
Antoine Pourron SEO White Hat et SEO Black Hat
référencement black hat, mais en proscrivant toute la partie néfaste et risquée de cette
dernière.
La seconde serait de développer des stratégies SEO, avec une préparation en amont, un
suivi et une analyse, plus importantes sur du moyen terme, en y apportant un gage de
résultats pour les entreprises, en vue d'éviter les risques liés au SEO black hat.
Au travers d'une étude terrain basée sur des entretiens semi-directifs auprès de professionnels et
experts du référencement, l'objectif va être de confirmer ou d'infirmer les hypothèses présentées
précédemment. Dans cette seconde partie qui constituera la partie terrain, nous nous
intéresserons tout d'abord à la mise en place du questionnaire en vue des interviews, en détaillant
le choix du type d'entretien, les objectifs, les thèmes que nous allons abordés et enfin les
difficultés rencontrées lors de ces entretiens. Les résultats liés aux entretiens feront l'objet d'une
analyse précise pour en dégager des préconisations, en vue de répondre de la manière la plus
claire possible à la problématique de ce mémoire de recherche appliquée.
47
Antoine Pourron SEO White Hat et SEO Black Hat
II. PARTIE TERRAIN
2.1 PRÉSENTATION DE L'ÉTUDE
2.1.1 Choix de la méthode d'étude
Suite à la problématique et aux hypothèses développées à la fin de la partie théorique de
ce mémoire de recherche appliquée, nous avons décidé de travailler sur une méthode qualitative
de recueil des données plutôt qu'une méthode quantitative. En effet, le nombre de professionnels
du référencement est restreint en France, et il l'est encore bien inférieur pour les référenceurs
black hat. En France, on dénombre un peu moins de 50 référenceurs black hat experts dans ce
secteur. C'est la raison pour laquelle une méthode quantitative de recueil des données ne pourrait
fonctionner ici. De plus, l'objectif de la problématique étant d'apporter une réponse précise et
technique, l'aspect qualitatif des réponses serait beaucoup plus intéressant. L'entretien semble
donc correspondre à cette problématique d'avantage que le questionnaire.
Dans le sens où il s'agit d'une problématique et d'hypothèses techniques, il va être nécessaire
d'obtenir des réponses précises et claires sur les différents thèmes abordés : Le référencement
white hat, le référencement grey hat, le référencement black what, l'algorithme Google,... C'est
pourquoi nous allons choisir de réaliser des entretiens de type semi-directifs. Une première
question générale sera posée aux professionnels de référencement, puis, en fonction du
développement de leurs réponses, nous aborderons les autres thèmes choisis, soit de manière
naturelle, soit via un ensemble d'autres questions. Sur un sujet comme le référencement, et plus
particulièrement le référencement black hat, il s'agit d'un domaine qui peut parfois gêner, dans le
sens où il s'agit de techniques sombres et illégales. Mais il est également possible que les
professionnels ne souhaitent pas répondre de manière précise aux questions, puisque ce métier
est réservé à peu de personnes, où l'expertise se monnaye à une forte valeur. L'entretien semi-
directif aura donc pour effet de laisser parler au maximum les interrogés, avec la possibilité de
les relancer sur d'autres thématiques par la suite.
48
Antoine Pourron SEO White Hat et SEO Black Hat
2.1.2 Objectifs de l'entretien
Au travers de l'entretien semi-directif que nous allons réaliser, l'objectif va être d'échanger
sur les différentes facettes du référencement naturel sur internet. La problématique, définie au
terme de la partie théorique de ce mémoire, nécessite une approche tournée particulièrement sur
de la stratégie et de la technique. Le but d'un tel entretien est donc d'obtenir le plus de réponses
précises et claires possibles sur les notions de SEO black hat, grey hat et white hat, mais aussi sur
les avis des professionnels par rapport à ces différentes méthodes, sur ce qu'implique aujourd'hui
une stratégie de référencement ou encore sur l'adaptation de ces experts aux évolutions de
l'algorithmes Google.
De manière plus générale, l'entretien aura pour objectif de confirmer ou d'infirmer les deux
hypothèses développées précédemment. C'est la raison pour laquelle le choix des personnes à
interrogées est important et c'est pourquoi nous avons choisi de ne travailler ici qu'avec des
experts français du référencement, certains évoluant uniquement sur du SEO white hat et d'autres
uniquement dans le domaine du SEO Black hat. Une troisième catégorie de professionnels
développe quant à elle des stratégies de référencement naturel via les deux écoles précédentes.
Avoir l'avis de personnes qui connaissent les deux modes de fonctionnement a un réel intérêt
dans le sens où elles vont avoir le recul nécessaire pour définir les avantages et les limites de ces
deux méthodes.
2.1.3 Thèmes et questions de l'entretien
Avec l'entretien que nous allons réalisé pour répondre à la problématique évoquée
précédemment, nous avons la volonté de recueillir les témoignages et avis de deux types de
professionnels du référencement naturel et gratuit : Les experts en référencement naturel white
hat et les experts en référencement black hat. Nous rappelons qu'il est important et intéressant
d'interviewer ces différents types d'acteurs français du référencement afin d'avoir une vision
transversale mais précise de domaine. Cela nous permettra d'obtenir un grand nombre de
49
Antoine Pourron SEO White Hat et SEO Black Hat
connaissances en vue de répondre de la meilleure manière possible à cette problématique et aux
hypothèses dégagées via des préconisations. Comme les personnes interviewées font parties de
deux catégories distinctes de référenceurs, il convient alors de réaliser deux types de questions
sur des thématiques quelques peu différentes, mais qui se rejoignent.
Concernant les entretiens à réaliser avec les experts du SEO white hat, le grille d'entretien34 ci-
dessous présente l'ensemble des thème que nous souhaitons aborder et sur lesquelles nous
souhaitons obtenir des réponses.
Partie du guide / les thèmesInterventions et relances prévues / Les questions pour
amener l’individu à parler sur ce thème
Thème 1 : Avis sur le SEO Black Hat
- Comment êtes-vous arrivé dans le secteur du SEO ?
- De manière générale, que pensez-vous du SEO Black
Hat ?
Thème 2 : La limite entre SEO Black Hat
et SEO White Hat
- Selon vous, où se situe la limite entre le SEO white Hat
et le SEO Black Hat ?
- Pourquoi ?
Thèmes 3 : Le SEO Grey Hat
- Qu'est ce que le SEO Grey Hat pour vous ?
- Est-ce un bon compromis entre le White Hat et le Black
Hat ?
Thèmes 4 : Changements d'algorithmes et
méthodes de travail
- En tant que SEO White hat, est-ce que les changements
d'algorithmes ont eu un impact sur votre référencement ?
- Est-ce que les changements d'algorithmes ont fait
changer votre façon de travailler ?
Thèmes 5 : Développement SEO White
Hat par rapport au Black Hat
- Pensez-vous que le SEO White hat pourrait être
amélioré pour éviter de passer par le black Hat ?
- Comment ?
- Quel est votre argumentaire pour favoriser le SEO
White Hat envers des clients qui hésiterait avec le SEO
Black Hat ?
Thème 6 : Promesses de résultats et SEO- Pensez-vous qu'il soit possible aujourd'hui de faire des
promesses de résultats sur les stratégies SEO ?
34 Grille d'entretien avec questionnaire associé présenté en annexe P.
50
Antoine Pourron SEO White Hat et SEO Black Hat
Concernant les entretiens à réaliser avec les experts du SEO Black Hat ou bien les experts qui
travaillent sur les deux types de référencement, nous avons élaboré une autre grille d'entretien.
Les thèmes se rejoignent mais certaines des questions divergent. L'analyse que nous réaliserons à
la suite des entretiens nous permettra de faire se confronter les deux approches afin d'en dégager
une réponse précise à la problématique et aux hypothèses. Ci-dessous la seconde grille
d'entretien :
Partie du guide / les thèmesInterventions et relances prévues / Les questions pour
amener l’individu à parler sur ce thème
Thème 1 : Avis sur le SEO Black Hat
- Comment êtes-vous arrivé dans le secteur du SEO, et
plus particulièrement dans le SEO Black Hat ?
- Quelles sont vos motivations dans le SEO Black Hat ?
- Quelles sont pour vous les avantages du SEO Black
Hat ?
Thème 2 : La limite entre SEO Black Hat
et SEO White Hat
- Selon vous, où se situe la limite entre le SEO white Hat
et le SEO Black Hat ?
- Pourquoi ?
Thèmes 3 : Le SEO Grey Hat
- Qu'est ce que le SEO Grey Hat pour vous ?
- Est-ce un bon compromis entre le White Hat et le Black
Hat (Pour les personnes qui hésiteraient à aller vers du
Black Hat) ?
Thèmes 4 : Changements d'algorithmes et
méthodes de travail
- En tant que SEO Black hat, est-ce que les changements
d'algorithmes ont eu un impact sur votre référencement ?
- Est-ce que les changements d'algorithmes ont fait
changer votre façon de travailler ?
Thèmes 5 : Développement SEO White
Hat par rapport au Black Hat
- Pensez-vous que le SEO White hat pourrait être
amélioré pour éviter de passer par le black Hat ?
- Comment ?
Thème 6 : Promesses de résultats et SEO- Pensez-vous qu'il soit possible aujourd'hui de faire des
promesses de résultats sur les stratégies SEO ?
51
Antoine Pourron SEO White Hat et SEO Black Hat
2.1.4 Choix des acteurs
Dans le domaine d'activité du web, et ici spécifiquement dans le secteur du
référencement, les professionnels et experts échangent fortement entre eux et avec les internautes
via les réseaux sociaux, leurs blogs respectifs. Ils n'hésitent pas à partager leurs derniers essais en
matière de référencement, qu'il s'agisse du SEO black hat ou SEO white hat, mais aussi leurs
ressentis par rapport à l'évolution des algorithmes Google par exemple. Parfois, certains vont
même jusqu'à partager leurs stratégies de référencement afin d'y expliquer ce qui a fonctionné et
ce qui n'a pas fonctionné, en détaillant les avantages et les limites. Dans le domaine du Black hat,
secteur réservé à une poignée de français, il est beaucoup plus difficile de voir un expert black
hat partager facilement ses stratégies, qui généralement sont sur des sites dont l'accus est
fortement limité. Cependant, les référenceurs et experts français, White ou black hat, sont
connus, notamment grâce à Twitter où ils échangent quotidiennement.
C'est grâce à ce moyen qu'une sélection des meilleurs référenceurs de France à pu être établie
en vue de les interroger pour ce mémoire de recherche appliquée. Contactés tout d'abord par
email, une grande majorité a répondu favorablement à cette demande d'entretien. Ces derniers se
sont alors déroulés par téléphones, par skype ou bien en face à face.
2.1.5 Difficultés rencontrées
52
Antoine Pourron SEO White Hat et SEO Black Hat
Ouvrages :
Andrieu Olivier (2012). Réussir son référencement web - édition 2012. Eyrolles.
Références électroniques :
http://www.01net.com/editorial/186972/petite-histoire-des-moteurs-de-recherche/ : Petite
histoire des moteurs de recherche, par Jean-Christophe Féraud (directeur du service
High-Tech et Médias des "Echos").
http://referenceurdulundi.blogue.fr/2008/09/15/historique-des-moteurs-de-recherche/
http://www.journaldunet.com/solutions/0604/060407-referencement-fonctionnement-
moteur.shtml
http://venturebeat.com/2010/10/27/google-exec-android-was-best-deal-ever/
http://www.numerama.com/magazine/3399-pourquoi-google-rachete-youtube-165-
milliard-de.html
http://www.seomoz.org/google-algorithm-change
http://www.entoiledefond.com/blog/referencement/le-nettoyage-de-printemps-selon-
google.html
http://www.webrankinfo.com/dossiers/techniques/google-panda
http://www.definitions-webmarketing.com/Definition-Ferme-de-contenus
http://online.wsj.com/article/SB10001424052748703745704576136742065119876.html
http://www.hitwise.com/us/press-center/press-releases/bing-searches-increase-twenty-
one-percent/
http://www.lemonde.fr/technologies/article/2011/02/11/bing-grignote-les-parts-de-
marche-de-google-aux-etats-unis_1478441_651865.html
http://www.1ere-position.fr/blog/eye-tracking-recherche-universelle-et-sens-de-lecture-
sur-une-page-de-resultats-google
http://www.webrankinfo.com/dossiers/yandex/chiffres-cles-russie
http://www.presse-citron.net/seo-les-dernieres-techniques-americaines-pour-faire-
exploser-votre-trafic
53
Antoine Pourron SEO White Hat et SEO Black Hat
http://www.definitions-webmarketing.com/Definition-Black-hat
http://www.nikopik.com/2012/04/le-black-hat-seo-resume-en-une-infographie.html
http://www.deliciouscadaver.com/comment-definir-le-black-hat.html
http://www.visibilite-referencement.fr/blog/black-hat-seo-512banque
http://www.definitions-webmarketing.com/Definition-URL-scraping
http://www.futura-sciences.com/fr/definition/t/internet-2/d/proxy_488/
http://www.seoland.fr/moteurs-de-recherche-referencement-et-droits-d
%E2%80%99auteurs/
http://www.seoblackout.com/2010/06/21/smx-paris-2010/
54
Antoine Pourron SEO White Hat et SEO Black Hat
55