Post on 13-Jul-2020
Antoine Pourron
MCS – ISEG Lyon
5ème année
MÉMOIRE DE RECHERCHE APPLIQUÉE
Année Universitaire 2011-2012
SOMMAIRE
2
AVANT-PROPOS
Internet occupe dans le monde d'aujourd'hui une place que l'on pourrait presque qualifiée
de vitale. L'organisation des échanges mondiaux, du commerce mondial, des flux de capitaux ou
bien également de la communication entre les milliards de personnes de la planète se fait
majoritairement par cet outil. Internet a dépassé depuis plusieurs années le statut de simple
média. Son évolution gigantesque au fil des années est la preuve de sa force, et n'est comparable
à aucune autre technologie. Encore aujourd'hui, nous vivons au jour le jour son développement,
avec l'apparition sans cesse de nouveaux produits et services et de nouvelles technologies
rendant les possibilités d'évolution toujours plus exponentielles. Le transfert d'internet sur les
appareils mobiles (smartphones et tablettes) en est un exemple très clair.
Parallèlement, le développement de l'outil internet a été la base de la création de millions
d'emplois à travers le monde. Certains métiers ont été créés spécifiquement, d'autres ont été une
évolution de métiers déjà existants. Avec ce nouvel outil mis à disposition de tous, il a fallu en
effet revoir un grand nombre de stratégies d'entreprises, travailler sur de nouvelles techniques,
mais aussi changer considérablement sa façon de penser, de communiquer et d'entretenir des
relations avec ses connaissances.
Même si son évolution est très ressente, internet existe depuis assez d'année pour avoir un recul
nécessaire quant à sa compréhension globale et à son fonctionnement. A l'heure actuelle, et de
manière globale, il est possible de distinguer trois types d'acteurs qui évoluent sur internet :
Les simples visiteurs, à la recherche de distractions, de rencontres, d'informations ou
bien d'un produit ou service...
Les Webmasters : Toutes les personnes/entreprises qui possèdent ou qui travaillent sur
un site internet
Les moteurs de recherche : Outils internet qui vont permettre la rencontre entre les
internautes et les sites qu'ils recherchent.
3
Un site internet ne peut exister sans être visible sur les moteurs de recherche. C'est la raison pour
laquelle les webmasters ont mis en place un certains nombres de techniques, que l'on pourrait
qualifier de techniques webmarketing, pour faire apparaître de la meilleure façon possible leurs
sites internet dans les moteurs de recherche. On parle alors plus communément de techniques de
référencement.
Le référencement sur internet est divisé en deux catégories bien distinctes. La première est
appelée référencement naturel, référencement gratuit ou en anglais, SEO (search engine
optimization). La seconde catégorie est le référencement payant, beaucoup moins abordables
pour les webmasters puisque cette technique consiste à payer les moteurs de recherche pour
apparaître sur ceux ci. Il s'agit du SEM (search engine marketing).
Au travers de se mémoire de recherche appliquée, je souhaite m'intéresser spécifiquement au
référencement naturel, et à toutes les techniques qui s'y rapporte, puisqu'il s'agit de la base de la
visibilité d'un site internet. Ce sont majoritairement ces stratégies de SEO qui vont permettre de
créer un lien entre les internautes "visiteurs" et les sites internet. D'une autre manière, il s'agira
d'étudier l'activité quotidienne des webmasters et référenceurs qui travaillent constamment au
développement de leurs sites internet, à la visibilité de ces derniers et aux différentes manières de
les rendre rentables et pérennes.
Dans le référencement naturel (SEO) et dans les techniques mises en place, deux écoles bien
spécifiques et différentes existent : Le référencement légal (appelé SEO White Hat) et le
référencement illégal (SEO Black Hat). Les webmasters et les entreprises vont, en fonction de
leurs objectifs et de la considération qu'ils ont du référencement, devoir choisir un axe
stratégique dans une seule de ces deux écoles. Même si l'objectif à moyen et long termes est le
même, c'est à dire obtenir le meilleur positionnement de son site internet sur les moteurs de
recherche, les techniques utilisées divergent fortement. L'intérêt d'un tel mémoire est également
de mieux comprendre le référencement Black Hat, domaine encore sombre en France et
maitrisé par peu de personnes, deux caractéristiques dues en grande partie à son caractère illégal.
4
Le but de ce mémoire de recherche appliquée va être de comprendre et savoir pourquoi
certains acteurs d'internet vont être amenés à utiliser le référencement légal, et pourquoi
certains vont utiliser le penchant illégal de ces stratégies. Pour rendre les propos développés
tout au long de ce mémoire les plus représentatifs possibles, nous nous positionnerons alors dans
une problématique de secteurs concurrentiels, domaine où les deux techniques de référencement
naturel sont omniprésentes et très importantes pour les différents acteurs. Par ailleurs, nous nous
intéresserons d'avantage au moteur de recherche Google qu'à ses concurrents, celui-ci ayant une
place quasi-monopolistique en France.
Dans la première partie, partie exploratoire de ce mémoire de recherche appliquée, nous allons
nous intéresser à l'évolution de référencement naturel depuis l'arrivée d'internet et des moteur de
recherche, pour ensuite développer plus particulièrement les différentes caractéristiques et
techniques du référencement légal et du référencement illégal. L'objectif de cette partie sera aussi
de comprendre le fonctionnement de Google et comment le moteur de recherche est-il arrivé à
occupé cette place de leader incontesté dans le domaine du référencement et du web en général.
Une problématique et des hypothèses associées pourront ainsi être dégagées, afin de construire
un modèle d'analyse qui viendra infirmer ou confirmer les différentes hypothèses établies, ce qui
constituera la partie terrain de ce mémoire. Les étapes d'observation, d'analyse des information
et de recommandations viendront compléter cette seconde partie.
5
I. PARTIE EXPLORATOIRE
1.1 LE RÉFÉRENCEMENT NATUREL - SEARCH ENGINE OPTIMIZATION (SEO)
Dans cette première sous partie, nous allons nous intéresser au référencement naturel, de
sa création à la place qu'il occupe aujourd'hui dans le monde de l'internet, en passant par son
évolution et celle des moteurs de recherche. En effet, le search engine optimization n'existerait
pas sans les moteurs de recherche, et c'est la raison pour laquelle il est important de s'intéresser à
ces outils qui aujourd'hui sont indispensables aux internautes, qu'ils soient visiteurs, webmasters,
professionnels ou entreprises. De véritables empires technologiques se sont construits autour des
moteurs de recherche, preuve de leur importance. Le SEO a suivi ce développement et a connu
de nombreuses transformations depuis son apparition, qu'ils s'agissent des techniques qui s'y
rapportent, de son intérêt mais aussi de son fonctionnement. C'est ce que nous allons détaillé
dans cette première partie.
1.1.1 Historique des moteurs de recherche et arrivée du SEO
Avant tout, il est important de distinguer les moteurs de recherche utilisés pour les
intranets et pour internet. Les intranets étaient utilisés par les services militaires, les
bibliothécaires ou bien les universitaires dans les années 80 avant que cette technologie soit
répandue au domaine privé et au grand public, devant ainsi l'internet. A cette époque, des
moteurs de recherche étaient mis en place pour le traitement de l'information de ces systèmes
intranet. Très vite, dès le début des années 90, nous allons parler de moteur de recherche pour
internet. Le premier réel moteur de recherche, nommé "Archie" est arrivé en 1990. Mais il ne
s'agissait pas encore d'un moteur de recherche sous forme de site web, comme nous les
connaissons aujourd'hui. C'était un logiciel mis en place pour rechercher des documents sur
internet.
6
Sur internet, le premier moteur de recherche date de 1993 et se nommait "Wanderer". Son
principe rejoint celui de tous les moteurs de recherche actuels : Sillonner le web grâce à de
nombreux robots appelés "bots" ou "spiders" dans le but de répertorier et référencer tous les sites
internet existants. Un an plus tard, en 1994, le moteur de recherche "Yahoo" est apparu avec un
principe novateur qui consistait à créer
humainement un annuaire des sites internet les
plus pertinents et qualitatifs. Contrairement au
moteur de recherche "Wanderer", il ne s'agissait donc pas de robots. Cet approche a permis à
Yahoo de devenir très rapidement le portail web le plus utilisé.
Dans la deuxième moitié des années 90, le processus de développement des moteurs de
recherche va s'accélérer, parallèlement à l'arrivée d'internet dans les ménages. "Lycos" va voir le
jour en 1995, "Altavista" en 1996. Ces nouveaux arrivants se basent sur de nouveaux procédés
qui vont leur permettre de se perfectionner et d'offrir des résultats toujours plus rapide, plus
exhaustifs et plus pertinents. Cependant, ces moteurs n'étaient pas encore optimisés pour les
utilisateurs de France. C'est ainsi qu'est né "Nomade.fr", premier annuaire internet en version
française. Peut de temps après, en 1998, France télécom lança son moteur de recherche
"Voila.fr". La même année, deux étudiants de l'université de Stanford, vont mettre au point le
moteur de recherche qui va révolutionner internet :
"Google". Avec une approche différente, Sergei Brin et
Larry Page vont créer un algorithme qui aura pour but
de classer les sites internet dans le moteur de recherche
en fonction de leur popularité auprès des internautes. La
rapidité, l'exhaustivité et la pertinence des résultats du
moteur de recherche vont lui permettre de se faire une place très rapidement sur internet. En l'an
2000, Yahoo va d'ailleurs choisir Google comme moteur de recherche pour son portail. En 2002,
le géant américain de service internet "AOL" en fera de même.
Au début des années 2000, il s'agira d'un tournant pour les moteurs de recherche. Certains ayant
optés pour la stratégie de "portail" au lieu de développer une technologie d'algorithme comme
Google disparaîtrons petit à petit. Cette à cette période que Google s'imposera comme le moteur
7
de recherche incontournable et l'outil le plus utilisé par les internautes, dont les internautes
français. C'est en 2002 que Google sera critiqué, pour la mise en place de ces "liens sponsorisé"
dans les résultats de recherche, mais cela n'empêchera en aucun cas sont évolution et son
développement
C'est avec l'arrivée des moteurs de recherche se basant sur une stratégie d'algorithmes que le
référencement naturel est apparu. Le but était alors de comprendre comment fonctionnaient ces
algorithmes afin de mettre en place des stratégies qui permettront d'apparaître à de meilleures
positions dans les résultats de recherche.
1.1.2 Le fonctionnement des moteurs de recherche
Le fonctionnement des moteurs de recherche est, en règle générale, commun au
différentes marques proposant ce service : Yahoo, Google ou encore Bing (moteur de recherche
du géant américain Microsoft). Tout d'abord, il convient de définir ce qu'est un moteur de
recherche. D'après Olivier Andrieu, consultant en référencement et auteur des différentes
éditions Réussir son référencement web, le moteur de recherche peut être défini comme "un
programme qui indexe de façon automatisée le contenu de différentes ressources internet
permettant à l'internaute de rechercher de l'information via des mots clés1".
Par le verbe "indexer" des ressources internet, il faut comprendre répertorier ou référencer des
pages internet. Le processus de référencement des pages sur internet par les moteurs de
recherche se font en trois étapes bien distinctes :
Le crawling : Processus automatique qui vise à inspecter tous les sites web de manière
plus ou moins régulière via des robots appelés bots ou spiders, en vue de les répertoriés et
de les référencer. Ces robots ont tous un nom attribués pour chaque moteur de recherche :
o Google : GoogleBot
o Yahoo : Slurp ou YahooBot
1 Définition Moteur de recherche par Oliver Andrieu - http://www.journaldunet.com/solutions/0604/060407-referencement-fonctionnement-moteur.shtml
8
o MSN : MSNBot
L'indexation : Une page interne indexée dans un moteur de recherche signifie qu'elle a
été visitée par les robots qui balayent internet, page qui est désormais référencée et
visible dans le moteur de recherche en fonction des mots clés tapés par l'internaute.
Le ranking : Enfin, le ranking va être l'attribution d'un positionnement de la page indexée
dans les résultats de recherche en fonction du mot ou des mots clés tapés. De manière
logique, les pages internet les mieux notées ("rankées") par les moteurs de recherche
apparaîtront dans les premiers résultats de recherche.
Avant développer plus en détails les prochaines parties sur le référencement, il est nécessaire de
définir correctement et clairement ce à quoi servent les algorithmes des moteurs de recherche.
Au travers du système d'indexation présenté ci-dessus, les moteurs de recherche vont attribuer un
positionnement à chaque page internet existantes. Le positionnement correspond à la place de la
page dans les résultats de recherche en fonction d'un ou de plusieurs mots clés tapés. C'est ce
que l'on va appeler le référencement naturel. Un site dit "bien référencé" sera dans les
premières position dans les SERP (search engine results page), page de résultats d'un moteur de
recherche, en Français. Un site ou une page internet dit "bien référencé" pourra également être
appelé "puissant" ou "influant" du point de vue du référencement. Sur certains moteurs de
recherche, comme sur Google, une note va être attribuée pour chaque page indexée. Dans le cas
de Google, cette note est appelée "Pagerank". Une page web sera notée de 0 à 10 par Google en
fonction de sa puissance (du point de vue du référencement). Une page ayant un pagerank de 8
sera un site très bien référencé et très bien positionné dans les SERP.
Ce processus d'indexation par l'algorithme des moteurs de recherche va dépendre de nombreux
critères, qui vont évoluer au cours du temps pour rendre les résultats de recherche toujours plus
pertinents pour l'utilisateur. Nous nous intéresserons à ces évolutions et optimisations des critères
d'indexation dans une prochaine partie, puisque c'est elles qui vont être a la base du
développement des stratégies de référencement.
9
1.1.3 Google : Leader indétrônable des moteurs de recherche
1.1.3.1 Google - Evolution des années 2000 à aujourd'hui
C'est en l'an 2000 que Google est réellement apparu comme un acteur de taille du secteur
d'internet, en devenant le moteur de recherche le plus important du monde avec, déjà à cette
époque, une version pour 15 langues différentes. Avec plus de 10 ans de recul, il apparaît très
clairement que Google à voulu, dans les premières années de son développement, consolider les
bases de l'outil qui l'a rendu célèbre, son moteur de recherche. C'est pourquoi, la même année,
Google à lancé son outil de création de liens sponsorisés : Google Adwords. Avec cet outil, les
webmasters pouvaient payer pour apparaître de façon très visible sur
les pages de recherche de certains mots clés tapés. C'est à partir de ce
moment qu'est né le Search Engine Marketing, ou référencement
payant, une technique totalement différente que le référencement
naturel/gratuit. Dès 2001, Google lançait le troisième outil de son moteur de recherche : "Image
Search", permettant aux internautes de rechercher parmi une base de plus de 250 millions
d'images. En signant en 2002 un partenariat avec AOL, Google à augmenté d'une manière
fulgurante sa notoriété et son utilisation aux Etats-Unis comme dans le reste du monde, en se
positionnant encore d'avantage comme le moteur de recherche le plus abouti et le plus pertinent.
En 2003, et en plus du développement de nouveau services pour son
moteur de recherche comme "Book search" permettant la recherche dans
une base de nombreux ouvrage, Google commence à lancer d'autres
outils, par ses propres moyens ou bien par le rachat de sociétés. Ainsi, la
plateforme de blog "Blogger" a vu le jour. L'évolution de la firme de
Mountain view s'est accrue d'avantage au milieu des années 2000, notamment avec son entrée en
bourse parfaitement réussie en 2004. S'en est suivie la mise en place des services géographique
"Google maps" et "Google Earth" qui viennent compléter les possibilités de recherche pour les
internautes.
2005 et 2006 ont été de fort développement pour l'entreprise, et continue de proposer aux
internautes des services et outils différents mais complémentaires : La messagerie mail de
10
Google "Gmail" sera lancé en décembre 2005, tout comme le service associé de messagerie
instantanée "Google Talk". 2005 a aussi été l'année du rachat d'"Android" par Google, pour un
montant resté secret. Ce rachat est décrit par l'entreprise comme la meilleur affaire réalisée. En
effet, Android concurrence aujourd'hui très fortement le système d'exploitation iOS d'Apple, en
France comme à l'étranger. Android est tellement rentable que les "publicités issues du système
d'exploitation permettent à elles seules de couvrir les frais de développement2".
Fin 2006, Google annoncera l'acquisition de "Youtube", le leader de l'hébergement de vidéos en
ligne, pour prêt de 1,65 milliard de dollars3. La publicité étant au coeur du business model de
Google, la société s'est très vite rendu compte que la publicité
allait de plus en plus arriver sur les plateformes d'hébergements de
vidéos. Youtube était alors un concurrent de taille pour Google,
qui à donc décidé de le racheter, un investissement à long terme
qui semble avoir porté ses fruits, puisque le service de vidéos
comptabilisait en Février 2011 plus de 490 millions d'utilisateurs par mois4.
En 2008, Google quittera une partie des services purement web en s'attaquant au marché des
navigateurs avec l'annonce du lancement de "Google Chrome", et cela en vue de concurrencer
les 3 principaux acteurs du marchés : 2 Source Venturebeat.com - http://venturebeat.com/2010/10/27/google-exec-android-was-best-deal-ever/3 Source Numérama.com - http://www.numerama.com/magazine/3399-pourquoi-google-rachete-youtube-165-milliard-de.html4 Source Youtube.com
11
Internet Explorer (par Microsoft)
Firefox
Safari (par Apple)
Un pari à nouveau réussi pour Google, puisque son navigateur occupe aujourd'hui la deuxième
place en part en marché, et vient concurrencer très fortement le géant de Microsoft, Internet
Explorer. En seulement 3 ans d'existence, Chrome a en effet dépassé Firefox dans le monde en
Novembre 20115 :
Depuis cette date, Google cherche à optimiser toujours plus ses services, à les rendre toujours
plus complémentaires, tout en travaillant sur de nouveaux projets. Les outils Google vont peu à
peu s'uniformiser pour offrir aux utilisateurs un seul et même design, plus clair, plus simple et
plus intuitif. Au début de l'année 2011, Google annonça l'arrivée de son réseau social "Google+",
service lancé au milieu de l'année 2011, dans le but de concurrencer Facebook. Malgré le retard
de Google dans le domaine du social, le groupe à misé sur son omniprésence sur le web pour
attirer les utilisateurs. Google+ à d'ailleurs été retravaillé fortement en 2012 pour apporter des
éléments de différenciations par rapport au géant du secteur, Facebook. Le but était également
d'apporter une approche d'avantage sociale dans les résultats de son moteur de recherche. 2011 et
2012 a encore été une période de nouveaux outils importants et novateurs pour Google :5 Source - Cabinet StatCounter, GlobalStats et lefigaro.fr
12
Sortie de Google Music (uniquement aux USA pour le moment) fin 2011 : Service
d'hébergement et d'écoute de musiques en ligne et sur n'importe quel support connecté à
internet
Sortie de Google Play au début de l'année 2012 : Service de téléchargements gratuits ou
payants d'applications mobiles et tablettes mais aussi de film. A travers Google play,
l'entreprise cherche à créer une plateforme de divertissement accessibles à tous ses
utilisateurs, comme l'a fait Apple avec son logiciel iTunes.
Sortie de Google Drive au milieu de l'année 2012 : Service de création de documents en
ligne : document texte, présentation, feuille de calcul, formulaire, dessin, etc. Ces
documents sont automatiquement enregistrés en ligne et sont ensuite disponibles depuis
n'importe quel support connecté à internet.
Au travers de cet état des lieux des services et outils mis en place par Google depuis ses débuts,
il est possible de dire que l'entreprise s'est
construit et s'est développé afin de consolider
continuellement ses services entre eux. Même si
la bataille du social n'est pas encore gagnée avec
le géant Facebook, Google s'est construit une
place de leader et acteur incontournable du Web
depuis sa création, principalement en Europe où
les parts de marchés avoisinent les 90% 6. Dans
les pays d'Amérique du Sud et d'Amérique du
Nord, les parts de marchés de Google varient
entre 65% et 75%, dus à une concurrence plus
forte des autres moteurs de recherche comme
Bing (Microsoft). C'est la raison pour laquelle les stratégies de référencement naturel se sont
mises en place en majeure partie sur Google.
Nous avons vu dans cette partie que le moteur de recherche était toujours plus ou moins placé
au centre des évolutions des services Google. Nous allons donc voir dans la partie suivante que 6 Source - Google.com 2011
13
son algorithme à su évoluer parallèlement avec les tendances d'internet, changements qui ont
eux des impacts sur le référencement des pages internet.
1.1.3.2 Google - Les changements d'algorithmes
Au cours de son développement et depuis sa création, Google a fait évoluer son
algorithme afin de le rendre toujours plus pertinent, plus rapide et plus exhaustif pour les
internautes.
L'indexation des pages va dépendre de critères qui vont être mis à jours par la société en fonction
des tendances du web que nous allons développés ci-dessous. Même si ces changements existent,
l'algorithme de Google garde cependant des critères de bases, critères qui ont fait le succès du
moteur de recherche depuis sa création. C'est ce que nous explique Matt Cuts dans une vidéo
publiée sur Youtube en début d'année 2012. Il s'agit d'un ingénieur qui à rejoint Google en
Janvier 2000 et qui est aujourd'hui le directeur de l'équipe "Webspam" de Google.
Dans cette vidéo, Matt Cuts nous informe sur le
fonctionnement du référencement naturel de Google. Il
explique que les sites les mieux classés dans les résultats de
recherche Google vont être ceux qui ont le plus de liens
entrants (Backlink : liens provenant d'un autre site internet et
pointant vers le nôtre), en prenant également en considération la réputation des sites faisant ces
liens. Par exemple, un lien entrant en provenance d'un site bien référencé par Google aura plus de
poids du point de vue du référencement qu'un lien entrant en provenance d'un site avec moins de
puissance. Il insiste également sur la relation entre les mots clés tapés par l'internaute lors de sa
recherche. Le moteur de recherche Google va répertorier le nombre de page web parlant
distinctement de chaque mot et le nombre de page web qui parlent de tous les mots en même
temps. Enfin, il explique que les robots qui balayent tous les sites web peuvent être amenés à
visiter une page plusieurs fois par jour, en fonction du nombre de mises à jours effectuées sur
la page et de sa popularité. Le positionnement de cette page dans les résultats de recherche
14
Google pourra donc être amenée à bouger régulièrement. C'est ainsi que le positionnement de
base des sites va être effectué.
Nous allons à présent développer les différents et principaux changements qui ont été opérés par
l'entreprise sur son algorithme. Il est tout de même nécessaire de préciser que plusieurs centaines
de mise à jour de l'algorithme sont faits chaque année, mais, de manière génrale, seule une petite
partie a un impact réel sur le référencement naturel des pages indexées. Pour chaque changement
important de son algorithme (période où le classement des pages et sites référencés est mis à
jour), Google l'associe à un nom spécifique pour l'ancrer plus facilement dans une démarche
d'évolution7 :
Boston - Février 2003 : Première réelle mise à jour de l'algorithme. Au départ,
l'algorithme de Google est mis à jour tous les mois, pendant la pleine lune. Le nom
associé à cette période était "Google Dance". A cette date, les mises à jours étant
devenues plus fréquentes, Google à décidé d'abandonner peu à peu cette idée de
changement mensuel.
Cassandra - Avril 2003 : Google à retravailler sur les fondamentaux du référencement de
qualité en pénalisant (forte baisse du référencement) les pages et sites internet composés
de textes cachés et liens cachés.
Florida - Novembre 2003 : Changements très importants qui visaient directement les
mauvaises pratiques des professionnels du référencement sur internet. Google a pu mettre
fin à environ 90 pratiques, dont celle du " bourrage" de mots clés, technique visant à
surcharger une page internet de certains mots clés pour apparaître à ne meilleures
positions dans les résultats de recherche.
Austin - Janvier 2004 : Changement qui à permit de pointer d'autres abus mis en avant
par "Florida", dont le texte invisible sur les pages et le "bourrage" des META Tags (liste
de mot insérés dans le codage d'une page web afin de renseigner les robots des moteurs
de recherche du sujet traité sur cette page).
Brandy - Février 2004 : Améliorations apportés à l'algorithme au niveau de la pertinence
des résultats de recherche. Google va accorder d'avantage d'importance à l'ancre d'un lien
7 Source - Classement des changements d'algorithmes Google par date - http://www.seomoz.org/google-algorithm-change
15
(texte sur lequel se trouve un lien) et à l'analyse des correspondances des mots clés et
synonymes.
Jagger - Octobre 2005 : Changements apportés sur la prise en compte de la qualité des
liens. Cette mise à jour cible les liens de faibles qualité : échanges de liens réciproques,
fermes de liens et liens rémunérés, qui n'ont que peu d'intérêt pour l'internaute et qui ne
servent qu'à pousser virtuellement le référencement des pages. Google à donc sanctionner
ces pages grâce à ce nouvel algorithme.
Universal Search - May 2007 : Amélioration des résultats de recherche avec l'intégration
des autres services Google : News, vidéos, images... Le temps des "10 annonces texte"
était révolu.
Caffeine & Real-time Search - 2009 : Google annonce un changement d'infrastructure
massif pour accélérer l'indexation des pages internet et améliorer l'efficacité du moteur de
recherche. En décembre, Google lance la recherche avec affichage des résultats en temps
réel, ainsi que l'intégration de Twitter et de Google Actualité, en essayant de donner à son
moteur de recherche une approche plus sociale.
Panda - Février 2011 8: Une évolution majeure dans l'algorithme Google mettant près de
2 mois à se développer dans le monde. Les changements apportés ont eu des
conséquences très importantes pour un grands nombre de sites internet. Environ 12% des
résultats de recherche Google ont été affectés, et des baisses de trafic allant jusqu'a -90%
ont été comptabilisées, obligeants certaines structures et entreprises à stopper toutes
activités. Panda a frappé l'Europe en Avril 2011 et des mises à jour régulières sont
opérées depuis. Pour Google, le but de Panda était de nettoyer son index (pages et sites
internet indexés dans son moteur de recherche), en supprimant ou pénalisant fortement :
o Les pages à faibles contenus. Site un site internet est composé d'un trop grand
nombre de pages à faibles contenus, le site entier est désindexer.
o Les pages dont le contenu est trop similaire à d'autres pages déjà existantes sur
internet
8 Source - Dossier Google Panda sur webrankinfo.com - http://www.webrankinfo.com/dossiers/techniques/google-panda
16
o Les fermes de contenus : "Sites créés et développés spécialement pour générer des
revenus publicitaires"9.
o Les sites composés de trop nombreuses publicités et les sites ne présentant pas
assez de normes qualitatives définies par Google
Penguin - Avril 2012 : Dernière mise à jour de l'algorithme Google en date. Tout comme
Panda, celle-ci devrait changer de manière significative les habitudes des professionnels
du référencement et les stratégies mises en place depuis plusieurs années. Même si il n'y a
pas encore assez de recul par rapport à cette dernière mise à jour, Penguin aurait comme
objectif de cibler et pénaliser les sites et pages suroptimisées du point de vue du
référencement mais aussi la suroptimisation des liens. Deux semaines après le lancement
de Google Penguin, Matt Cuts (responsable du webspam chez Google) a accordé une
interview au site SearchEngineLand.com. Il explique que même si certains sites ont
perdu de nombreuses positions dans les résultats de recherche, il reste "convaincu que
Google Penguin a permis de mettre hors jeu ceux qui spamment son index ou qui en
avaient l’intention10". Il ajoute " Google Penguin a un objectif de précision. A savoir, agir
efficacement contre toutes les pages renvoyant un fort signal de sur-optimisation ou de
spam".
D'après cet état des lieux des principales mises à jour des algorithmes fait par Google depuis sa
création, il apparaît que le leader des moteurs de recherche souhaite rendre son outil toujours
plus qualitatif et plus efficient, parfois au dépend de certains sites déjà en place depuis
plusieurs années. Google se bat depuis sa création sur les pratiques illégales du référencement,
stratégies que nous allons développer dans la deuxième partie de cette partie exploratoire. Au
travers des modifications de son algorithme, Google montre qu'il prend de plus en plus en
considération les interactions sur les réseaux sociaux. L'objectif et l'intérêt pour l'entreprise sont
aussi de développer son réseau social Google+ en vue de concurrencer Facebook. Une page web
ou un site internet étant relayés de nombreuses fois sur les réseaux sociaux, et créant beaucoup
d'interactions, gagnera d'avantages de positions dans les résultats de recherche que les pages web
9 Source : Définitions-Webmarketing.com - http://www.definitions-webmarketing.com/Definition-Ferme-de-contenus10 Interview Matt Cuts pour Danny Sullivan (SearchEngineLand.com), Avril 2012
17
n'étant pas relayées. Les habitudes de référencements changent et évoluent. Il s'agit d'un travail
d'adaptation de la part de tous les professionnels SEO pour élaborer de nouvelles stratégies, dans
l'objectif d'obtenir continuellement les meilleurs positions dans les résultats de recherche Google.
C'est ce à quoi nous allons nous intéresser dans les prochaines parties de ce mémoire.
1.1.4 Les autres moteurs de recherche et leur place actuelle
Comme il l'a été présenté précédemment, et même si Google est un acteur incontournable
de l'internet actuel, il reste important de s'intéresser aux autres moteurs de recherche existants, en
France comme à l'étranger. Nous l'avons vu, Google possédait en France près de 90% des parts
de marchés à la fin de l'année 2011 d'après AT Internet. Viennent ensuite Bing avec 3.3% de
parts de marché, Yahoo avec 1.5% et Orange avec 0.8% de parts de marché. Cette situation est
semblable dans une grande partie des pays d'Europe. Une domination de Google qui est loin de
disparaître.
Néanmoins, il est intéressant de regarder la situation dans les autres pays du monde, une situation
qui toute autre. En effet, aux Etats-Unis et dans d'autres pays du continent américain, même si
Google reste leader, les parts de marchés de la firme de Mountain View sont moindres, au profit
de Bing et Yahoo. Il convient de différencier cependant Bing et Yahoo qui sont certes, tous deux
des concurrents de Google, mais ce sont des acteurs de nature différentes. Yahoo est d'avantage
un portail plutôt qu'un moteur de recherche. Un portail peut se définir comme étant un "site qui
par son contenu (moteur de recherche, actualités, informations pratiques, météo,...) se veut un
point d'entrée incontournable sur internet et un carrefour d'audience11". Yahoo correspond
exactement à cette définition dans le sens où il va répertorié l'ensemble des services évoqués,
mais en y ajoutant en plus des outils similaires au leader Google : Webmail, Agenda... Quant à
Bing, de Microsoft, se positionne d'avantage en tant que concurrent de Google puisqu'il s'agit
d'un moteur de recherche. Il progresse de plus en plus en Etats-Unis qui connait la plus forte
évolution depuis son lancement d'après deux études des cabinets cabinets Comscore et Hitwise.
Au début de l'année 2011, Bing cumulait près de 27% des recherches effectuées aux Etats-Unis.
D'après l'étude Hitwise, "Bing bénéficie d'un taux de clics plus important que Google : 81 % des 11 Source - Définition Portail Internet - http://www.definitions-webmarketing.com/Definition-Portail-Internet
18
recherches sur le moteur de Microsoft débouchent sur un clic, contre 65 % pour les requêtes
effectuées sur Google12". Bing cherche en effet à se différencier de Google, au lieu de lui
ressembler. C'est en cela que le moteur de recherche de Microsoft développe son algorithme pour
prendre plus en considération la localisation de l'internaute plutôt que son historique de
recherche. Malgré cette évolution, Bing reste à 4% de parts de marché dans le monde.
En Russie le moteur de recherche leader s'appelle "Yandex".
En Mars 2011, le moteur de recherche russe détenait environ
65% des parts de marchés 13des moteurs de recherche
présents dans le pays. Google arrivait en deuxième position avec seulement 22% de parts de
marchés.
Quand au continent asiatique, Google n'occupe pas non plus la place de leader dans la majorité
des pays. C'est le moteur de recherche "Baidu" qui est majoritaire comme par exemple en Chine,
avec entre 75 et 85% de parts de marché en 2010. Cependant, Baidu est loin d'avoir fait
l'unanimité dans les pays de la zone asiatique.
Les Etats-Unis sont toujours un modèle concernant le domaine d'internet. Le fait que Bing gagne
quelques parts de marchés sur Google va potentiellement changer les approches du
référencement et permettre de voir émerger de nouvelles techniques de SEO. En Europe, cette
situation n'est pas encore à l'ordre du jour. Bing à tout intérêt à se développer là où Google n'a
pas une position quasi-majoritaire. C'est pourquoi les stratégies de référencement ne sont que très
peu développées sur le moteur de recherche Microsoft, au profit du référencement Google.
Actuellement, Bing n'apporte que trop peu de visibilité à un site internet français ou francophone
pour s'y intéresser.
Nous allons maintenant nous pencher sur l'intérêt du référencement naturel pour les sites internet,
domaine encore en pleine expansion et indispensable a l'heure actuelle.
12 Source - Etude Hitwise et Le Monde Technologies - http://www.lemonde.fr/technologies/article/2011/02/11/bing-grignote-les-parts-de-marche-de-google-aux-etats-unis_1478441_651865.html13 Source - liveinternet.ru
19
1.1.5 Le SEO, pourquoi ?
Être présent et indexé sur Google n'est pas une démarche difficile, puisqu'elle est
automatique. Nous l'avons dans les parties précédentes, Google scrute l'ensemble du web grâce à
des robots qui sillonnent toutes les pages de tous les sites internet, jours et nuits. Suite à cela,
l'algorithme de Google indexera ou non les pages en fonction de critères et leurs accordera un
positionnement dans les résultats de recherche. Un site créé de la façon la plus normale possible
(c'est à dire sans abus : Pas de caractères injurieux, racistes, violents, pornographiques) sera très
vite référencé sur le moteur de recherche.
Cependant, il ne suffit pas d'être référencer sur Google pour faire vivre un site internet sur le long
terme. En effet, un site internet référencé par exemple en troisième page de Google sur les mots
clés principaux de son activité n'aura aucune visibilité et que très peu de visites. Pour qu'un site
ou une page web soient rentables et pérennes, ils doivent être bien référencer, c'est à dire qu'il
doivent apparaître au minimum sur la première page des résultats de recherche sur les mots clés
caractéristiques du site.
Exemple : Un site de vente de lunettes en ligne devra se positionner sur des mots clés de
types "achat lunette", "achat lunettes", "achat lunettes en ligne", etc. En tapant ces mots
clés sur Google, l'objectif des stratégies de référencement est que ce site devra apparaître
dans les premières positions des résultats de recherche.
Une étude d'eye tracking des résultats Google réalisée en 2005 par Enquiro Research14 nous
montre, de manière claire et précise comment va réagir l'internaute sur la page de résultats suite à
une recherche et quel va être son sens de lecture :
14 http://enquiroresearch.com/
20
15
Ici, il apparait très clairement que l'internaute va s'intéresser principalement aux 4 premiers
résultats affichés par Google. Si il trouve ce qu'il recherche, il se dirigera très rarement vers le
bas de cette première page, et encore moins en seconde page des résultats de recherche. Ce
comportement n'a que très peu évolué entre 2005 et aujourd'hui, même si de nouveaux éléments
se sont insérés dans les résultats de recherche depuis quelques années, comme les Actualités
Google, les vidéos ou bien les images. Cependant, il faut noter que ces nouveaux éléments
n'apparaissent que sur certains mots clés très recherchés, ce n'est pas le cas de tous.
Cette insertion de nouveaux éléments va changer de manière significative l'ordre de lecture des
résultats de recherche su Google. La même étude d'eye tracking réalisée par Enquiro Research,
cette fois ci en 2010, nous illustre ce changement de lecture :
15 Etude Enquiro Research Eye Tracking Google SERP 2005 - http://www.1ere-position.fr/blog/eye-tracking-recherche-universelle-et-sens-de-lecture-sur-une-page-de-resultats-google
21
16
Sur cette nouvelle illustration, nous pouvons constater que l'ordre de lecture n'est plus verticale
comme sur une page de résultats de recherche où seuls des liens textuels apparaissent. Il est
également intéressant de voir que la première place dans les résultats n'a plus la même
importance lorsque de nouveaux éléments (types photos ou vidéos) sont intégrés sur la page. Les
internautes sont alors beaucoup plus attirés par les illustrations que par le texte, puisque c'est la
première chose qu'ils regardent (A). Afin de savoir si cette illustration correspond à ce qu'ils
recherchent vraiment, ils vont lire ensuite la description associées (B). C'est ensuite que les
internautes vont reprendre un sens de lecture vertical, en s'intéressant d'abord au premier résultat
fourni par Google (C) puis aux autres résultats situés sous l'illustration (S). De la même manière
que pour les pages de résultats sans illustration, plus l'on s'éloigne de la première position, plus le
taux de clics chute. Une étude sortie en Aout 2011 réalisée par Slingshot SEO17, entreprise
reconnue de référencement naturel, nous montre le fort écart qu'il existe en moyenne entre les
taux de clics sur la première page de résultats Google :
1ère position Google : 18.2% de taux de clics
16 Etude Enquiro Research Eye Tracking Google SERP 2010 - Livre blanc sur les moteurs de recherche - http://www.1ere-position.fr/blog/eye-tracking-recherche-universelle-et-sens-de-lecture-sur-une-page-de-resultats-google17 Source - Slingshot SEO - http://www.slingshotseo.com/resources/white-papers/google-ctr-study/
22
2ème position Google : 10.05% de taux de clics
3ème position Google : 7.22% de taux de clics
4ème position Google : 4.81% de taux de clics
5ème position Google : 3.08% de taux de clics
8ème position Google : 1.75% de taux de clics
10ème position Google : 1.04% de taux de clics
Nous constatons qu'un site bien référencé est un site qui se situe entre la première et la cinquième
place des résultats de recherche Google, et même 4ème place. Pour qu'un site internet soit
référencer par un moteur de recherche, nous avons donc constaté qu'il s'agissait d'un processus
simple puisqu'il est automatique. Cependant, apparaître dans les premières positions des
résultats de recherche - lorsque les internautes tapent à un mot clé en rapport avec le site
internet à référencer - demande beaucoup plus de travail et de temps. C'est ici que prend source
tout l'intérêt du SEO des stratégies qui en découlent. Le SEO est un passage obligatoire pour
tous les sites internet souhaitant se développer.
La personne en charge du référencement naturel, aura donc pour but de positionner son site
internet ou bien une page de son site dans les premières positions des résultats de recherche.
C'est ainsi que le nombre de visiteurs augmentera et c'est ainsi que le site pourra être de plus en
plus rentable et pérenne. Mais, en milieu concurrentiel, cette démarche peut s'avérer difficile,
certains acteurs étant positionnés depuis plusieurs années sur les mots clés les plus tapés par les
internautes. Le référencement naturel est donc indispensable pour la survie d'un site, mais aussi
pour se positionner face à une concurrence qui devient de plus en plus importante sur internet.
Dans la partie suivante, nous allons nous intéresser aux différentes stratégies de référencement
naturel existantes, en détaillant tout d'abord les stratégies globales et stratégies de bases, pour
ensuite développer les stratégies mises en place par les professionnels en rapport avec les
évolutions des algorithmes Google de ces derniers années.
23
1.1.6 Les stratégies et techniques SEO globales
1.1.6.1 Etudes préalables
Construire une stratégie de référencement naturel nécessite un réel travail en amont afin
de connaître toute les caractéristiques du marché et les caractéristiques web sur lesquelles un site
va être positionner. Cela doit être défini avant même la création du site internet, puisque les
rubriques à définir ainsi que les contenus insérés à l'intérieur des pages du site vont dépendre en
grande partie de la stratégie SEO. Plusieurs points seront à définir précisément pour ce travail en
amont d'un site dans un milieu concurrentiel :
1. Benchmarking : Etude des sites internet concurrents (organisation des contenus,
contenus), de leurs positionnements respectifs sur les moteurs de recherche, des pages qui
ressortent le plus dans les résultats de recherche, des mots clés sur lesquels les sites
concurrents ressortent le plus.
2. Mots clés : Etude et analyse des mots clés les plus tapés dans Google sur le thème du site
à référencer. Etude des tendances et évolutions des mots clés par rapport aux différentes
périodes de l'année et étude des synonymes par rapports à ces mots clés. En dégager une
liste de mots clés très concurrentiels mais indispensables, et une liste de mots clés
importants sur lesquels il est plus facile de se positionner. Grâce à cela, il sera possible de
définir plus facilement l'ensemble des rubriques du site internet.
3. Contenu : Mise en place d'une liste de contenus à organiser dans les rubriques définies
préalablement. Les contenus, en rapport direct avec la thématique traitée par le site
internet, devront être construit sur la base des mots clés définis dans les études
précédentes.
Afin de réaliser ce travail, internet met à la disposition des webmasters et des référenceurs un
certains nombre d'outils puissants et pour la majeure partie, gratuits. L'accessibilité de ces outils
est un avantage non négligeable sur internet, mais qui peut s'avérer être un inconvénient s'ils sont
également utilisés par la concurrence. C'est la raison pour laquelle les études réalisées en amont
de la construction d'un site internet doivent être parfaitement travaillées, en faisant attention à
24
développer plusieurs axes stratégiques de référencement : Le premier sur des mots clés
également visés par la concurrence, le second dans un but de différenciation, mais toujours sur la
même thématique.
Concernant l'étude des sites concurrents, des mots clés utilisés et de leurs positionnement sur
les moteurs de recherche, plusieurs outils existent :
Majesticseo.com : Etude sur les liens de n'importe quel site internet : Nombre de sites
faisant un lien vers celui du concurrent avec classement des plus importants. Le site
calcul également le nombre de liens sortants du site concurrents.
Pagerank.fr : Permet de calculer la note accordée par Google à n'importe quel site
internet (Pagerank). L'outil va également détaillé le nombre de pages indexées dans le
moteur de recherche et le nombre de backlink (liens entrants).
Seoh.fr/audit-seo : Outil qui permet de réaliser gratuitement un audit de référencement
gratuit d'un site internet : principales balises de référencement, mots clés les plus utilisés,
principaux points à travailler pour optimiser le référencement.
Positeo.com : Cet outil permet de trouver le positionnement d'un site internet sur Google
sur un ou plusieurs mots clés. En y renseignant également des données de géolocalisation
et de langue, il est très simple de connaître la position d'un concurrent sur tout type de
thématiques.
De même, pour l'étude des mots clés sur lesquels il sera important de travailler pour le
référencement du site internet, de nombreux outils permettent de les définir très précisément.
Parmi les principaux, l'outil "Google Insight" est l'un des plus utilisés. Il va permettre de
calculer le nombre de fois qu'un mot clé est tapé sur Google tous les mois, par pays, région mais
aussi par date. L'outil fonctionne également avec l'analyse de plusieurs
mots clés afin de les comparer. Il sera alors possible de voir les
différentes tendances de chaque mot clé, lequel est le plus tapé ou bien
lequel à le plus d'influence à telle ou telle période de l'année. Enfin, l'outil développé par Google
vous propose une liste exhaustive de synonymes ou mots clés tirés de la même thématique avec
leurs pourcentages respectifs d'évolution.
25
Au travers de ces différents outils, la création du site internet et sa stratégie de référencement,
dont les différents aspects vont être présentés dans les parties ci-après, vont pouvoir commencer
sur des bases solides en ayant pris connaissance du positionnement précis des concurrents sur les
moteurs de recherche.
1.1.6.2 Création, optimisation de contenu et maillage interne
Le point de base du référencement naturel est le contenu. En effet, c'est lui qui va en
premier lieux permettre à Google d'identifier un site internet comme traitant de tel ou tel sujet et
de le référencer sur des mots clés précis. Cependant, la seule présence d'un contenu de qualité
n'est pas un gage de bon référencement. Il est à la base d'un travail de fond et de moyen/long
terme pour augmenter peu à peu la position du site ou de la page internet sur le moteur de
recherche.
Tout d'abord, pour qu'un site internet se référence de manière plus rapide, il est nécessaire qu'il
ait un contenu de base de qualité, mais surtout que du contenu soit ajouté constamment sur le site
internet. En effet, les robots du moteur de recherche Google n'inspectent pas qu'une seule fois le
contenu présent. Ils reviennent de manière régulière afin de vérifier si le contenu est toujours de
qualité, s'il correspond toujours à la ou les thématiques pour lesquelles le site à été référencé, si
le contenu à subit des mises à jours, et s'il y a eu de nouveaux contenus sur le site internet. Plus
un site internet connait de modifications au niveau de son contenu (mises à jours ou ajout), plus
les robots Google vont revenir régulièrement. De nouveaux contenus de qualité (contenus
correspondant à la thématique du site à référencer, composés de mots clés très tapés par les
internautes) ajoutés régulièrement vont prouver à Google que le site est actif. Grâce à cela, le
moteur de recherche va progressivement faire gagner des positions à ce site internet dans les
résultats de recherche. Ce point est très important et va constituer un pilier dans la stratégie de
référencement.
Ensuite vient une partie d'optimisation des contenus. Cette étape est une stratégie propre au
référencement, dans le sens où il va s'agir de techniques de mise en valeur d'éléments à l'intérieur
des contenus du site internet. Cette optimisation se fait à plusieurs niveaux :
26
Le titre des pages et titre des contenus : Pour chaque page et chaque contenu d'un site,
les titres sont très important pour Google, puisque c'est eux qui vont apparaître dans les
pages de résultats du moteur de recherche. Ces titres doivent donc être optimisés, c'est à
dire composés des mots clés principaux du contenu, mots clés sur lesquels le référenceur
cherche à positionner le site. Dans un titre optimisé, on trouvera le mot clé principal en
premier, accompagné ensuite de synonymes ou mots clés de la même thématique. Dans
une page internet, il existe plusieurs types de titres (qui doivent tous être différents mais
composés de mots clés semblables pour améliorer le référencement de la page) :
o Titre global de la page : Il s'agit de la "balise title" de la page, c'est à dire le texte
qui sera affiché sur les moteurs de recherche.
o Titre H1 (Header 1) : Titre principal affiché sur la page du site internet, censé
représenté le contenu aux internautes mais aussi aux moteurs de recherche
o Titre H2 : Sous titre qui vise à mieux structurer le contenu à l'intérieur de la page
web
o Titres H3 à H6 : Il s'agit de tous les types de sous titres que l'on peut insérer dans
une page internet pour prouver aux moteurs de recherche une organisation
structurée du contenu.
Balises de mise en avant : Optimiser une page web, c'est aussi attribuer aux mots clés
importants du contenu des balises pour indiquer aux moteurs de recherche de quoi traite
exactement le sujet. Ainsi, Google saura plus facilement référencer et positionner la page
par rapport à la thématique traitée. Il existe différents types de mises en avant de contenu
grâce à des balises HTML comme par exemple :
o Balise <strong> : Balise de mise en gras des mots clés importants de la page. Il
reste néanmoins important de ne pas en abuser pour éviter la sur-optimisation de
la page (sanctionner par Google, c'est à dire une perte de position de la page dans
les résultats de recherche).
o Balise <em> : Balise de mise en italique de certaines parties du texte de la page.
Mise à jours du contenu : Enfin, l'optimisation d'une page web passe par sa mise à jour
régulière, en y ajoutant de nouveaux contenus par exemple, ou en y ajoutant des
27
illustrations, tels que des images ou des vidéos avec un texte associé. Google va ainsi voir
que la page continue d'être active.
La troisième et dernière partie de la stratégie de référencement d'un contenu d'un site internet est
le maillage interne, c'est à dire l'organisation du contenu. Ce terme correspond aux liens
hypertextes (liens cliquables) qui vont permettre de lier les différentes pages d'un site web entre
elles. Un maillage interne bien optimisé pour le référencement correspond à un ensemble de liens
logiques à l'intérieur d'un site. Comme nous l'avons vu dans les parties précédentes, lorsque les
robots Google inspectent un site internet, ils suivent l'ensemble des liens qui lient les pages.
Cette stratégie de maillage interne va donc permettre de créer des chemins entre des contenus de
même types et complémentaires, mais aussi entre les différentes rubriques présentes sur le site.
Cela améliore de manière significative le référencement d'un site ou d'une page web. Les liens
entre les pages d'un site interne sont de plusieurs formes :
Liens du menu : Liens visités en premier par les robots Google puisqu'ils arrivent en
premier dans le sens de lecture de la page. Les liens du menu ont pour objectifs de lier
logiquement les pages, pour guider plus facilement le visiteur, mais aussi les robots des
moteurs de recherche.
Liens à l'intérieur des contenus : Faire des liens dans les contenus de chaque page
permet à Google d'associer un lien à une thématique précise, puisque le lien sera entouré
de texte de qualité et optimisé, comme nous l'avons vu dans la partie précédente. Point
important, l'ancre (texte sur lequel se trouvera le lien) des liens doit être choisi avec
attention. Elle doit correspondre à un mot clé précis sur lequel la page souhaite se
référencer.
o Lien optimisé pour le référencement : "Retrouvez dans un deuxième article tout
ce qu'il faut savoir sur l'achat de lunettes sur internet"
o Lien non optimisé : "Pour tout savoir de l'achat de lunettes sur internet, cliquez
ici"
Liens de bas de page : Liens peu pris en compte par Google, ils serviront principalement
à rediriger l'internaute vers les parties principales du site internet.
28
Ce premier aspect de la stratégie de référencement aura pour conséquence une amélioration des
positions des pages d'un site internet dans les résultats de recherche de Google.
1.1.6.3 Netlinking
Le deuxième aspect d'une bonne stratégie de référencement concerne la notion de
Netlinking, c'est à dire la mise en place d'une stratégie de liens entrants (backlink) et de liens
sortants.
Liens entrants (Backlinks) : Lien situé sur un autre site internet et qui pointe vers notre
site ou bien une page de notre site.
Liens sortants : Lien situé sur notre site pointant vers un site extérieur
Du point de vue du référencement et plus globalement, du point de vue de la visibilité d'un site
web sur internet, il est beaucoup plus intéressant d'avoir d'avantage de backlinks que de liens
sortants. Un site internet possédant de nombreux backlinks va être vu par Google comme un site
de référence, puisque de nombreux sites en parle et font des liens vers celui-ci. Google
accordera donc à ce site "de référence" de meilleures positions dans les résultats de recherche. Il
est néanmoins nécessaire de noter que les liens ont des poids différents du point de vue du
référencement :
Un lien à l'intérieur d'un contenu, entouré de texte en rapport avec les mots clés
principaux de notre site sera préférable à un lien seul.
Un lien dans une page bien référencée sur Google sera plus intéressante au niveau
référencement, qu'un lien sur une page peu référencée. De même, un lien sur une page
avec un fort Pagerank aura plus de poids qu'un lien sur une page à petit Pagerank.
Un lien en haut de page aura plus de poids qu'un lien situé en bas de page.
Dans la stratégie de référencement à mettre en place, il convient donc de réunir toutes ses
caractéristiques pour optimiser les backlinks fait par d'autres sites. Afin d'obtenir ce type de liens
qualitatifs et qui feront augmenter véritablement la position de notre site internet sur Google, il
existe de nombreux moyens différents. En voici quelques exemples :
Echange de liens : Un lien entrant en échange d'un lien sortant
29
Partenariats : En échange d'un service, un site extérieur pourra faire un backlink vers
notre site.
Backlinks via des partages : Le meilleur moyen d'obtenir des liens entrants est de créer
des contenus intéressants, originaux et de très bonne qualité sur le site internet à
référencer. Le site gagnera en notoriété et sera de plus en plus vu comme un site de
référence dans la thématique qu'il traite. De nombreux sites feront peu à peu des liens
vers ce site, sans rien avoir à demander.
L'objectif est donc d'obtenir le plus de liens entrants possibles, et les plus qualitatifs possible, une
caractéristique que Google prend fortement en consécration dans son processus de référencement
des sites internet.
1.1.6.5 Suivi de la stratégie SEO
Une fois en place, une stratégie de SEO doit être suivie par le référenceur en charge du
positionnement du site internet sur les moteurs de recherche. En effet, ce travail va permettre de
savoir si la stratégie fonctionne, si les pages du site internet gagnent ou perdent des positions sur
Google par rapport aux concurrents, mais surtout de savoir si la stratégie est bonne ou si il est
nécessaire de la changer ou de l'adapter.
Les mêmes outils présentés précédemment pour le travail de mise en place de le stratégie de
référencement serviront également pour cette partie. Les outils utilisés pour analyser le
référencement et le positionnement des concurrents pourront
aussi servir à l'analyse de notre site. Il existe d'autres moyens
très intéressants et indispensables pour se rendre compte de
l'efficacité d'une stratégie de SEO, chiffres et statistiques
disponibles uniquement si le site web nous appartient. L'un de ces outils est "Google Analytics".
Sur ce site internet mis à disposition gratuitement par Google aux webmasters et référenceurs, il
va leur être possible d'analyser tous les chiffres inhérents au site sur lequel ils doivent travailler :
Nombre de visites par jour, par mois, par an, nombre de visiteurs unique, nombre de pages vues
30
par visites, durée moyenne de la visite, les différentes sources de trafic, les contenus les plus
visités, les sites référents les plus importants, les mots clés principaux tapés pour arriver sur le
site, etc.
Via cet outil, il va être possible de croiser les données pour affiner le travail de référencement
réalisé sur le site. Connaître le nombre de visiteurs d'île de France ayant visité un page précise du
site sera par exemple possible. Ainsi, grâce à cette analyse des données, le référenceur va
pouvoir prendre un certain nombre de décisions importantes. Il va par exemple pouvoir décider
de travailler plus particulièrement sur un mot clé plutôt qu'un autre, si ce dernier apporte moins
de visites que le premier.
Les positions sur Google changent très souvent. L'analyse des données du site internet est donc
un travail de tous les jours, un travail d'adaptation pour optimiser toujours plus le
référencement.
1.1.7 Les stratégies et techniques SEO actuelles
(approche sociale et interaction)
31
Ouvrages :
Andrieu Olivier (2012). Réussir son référencement web - édition 2012. Eyrolles.
Références électroniques :
http://www.01net.com/editorial/186972/petite-histoire-des-moteurs-de-recherche/ : Petite
histoire des moteurs de recherche, par Jean-Christophe Féraud (directeur du service
High-Tech et Médias des "Echos").
http://referenceurdulundi.blogue.fr/2008/09/15/historique-des-moteurs-de-recherche/
http://www.journaldunet.com/solutions/0604/060407-referencement-fonctionnement-
moteur.shtml
http://venturebeat.com/2010/10/27/google-exec-android-was-best-deal-ever/
http://www.numerama.com/magazine/3399-pourquoi-google-rachete-youtube-165-
milliard-de.html
http://www.seomoz.org/google-algorithm-change
http://www.entoiledefond.com/blog/referencement/le-nettoyage-de-printemps-selon-
google.html
http://www.webrankinfo.com/dossiers/techniques/google-panda
http://www.definitions-webmarketing.com/Definition-Ferme-de-contenus
http://online.wsj.com/article/SB10001424052748703745704576136742065119876.html
http://www.hitwise.com/us/press-center/press-releases/bing-searches-increase-twenty-
one-percent/
http://www.lemonde.fr/technologies/article/2011/02/11/bing-grignote-les-parts-de-
marche-de-google-aux-etats-unis_1478441_651865.html
http://www.1ere-position.fr/blog/eye-tracking-recherche-universelle-et-sens-de-lecture-
sur-une-page-de-resultats-google
http://www.webrankinfo.com/dossiers/yandex/chiffres-cles-russie
32