Breve histoire-digital-analytics-par-brice-bottegal

41
0 j BRÈVE HISTOIRE DU DIGITAL ANALYTICS Retour historique sur la discipline, les principaux événements qui ont marqué son évolution et prévision des prochaines grandes tendances Par Brice Bottégal A Time Traveller’s Dream par Michael Vincent Manalo

Transcript of Breve histoire-digital-analytics-par-brice-bottegal

Page 1: Breve histoire-digital-analytics-par-brice-bottegal

0

j

BRÈVE HISTOIRE DU

DIGITAL ANALYTICS Retour historique sur la discipline, les principaux événements qui ont

marqué son évolution et prévision des prochaines grandes tendances

Par Brice Bottégal

A Time Traveller’s Dream par Michael Vincent Manalo

Page 2: Breve histoire-digital-analytics-par-brice-bottegal

© 2016 Brice Bottégal – @bricebottegal - bricebottegal.com 1

Sommaire

Préambule ..................................................................................................................................................... 2

A propos de l’auteur...................................................................................................................................... 2

Le digital analytics, une activité cruciale pour les annonceurs ..................................................................... 3

Définition du digital analytics ........................................................................................................................ 4

Présentation du marché du digital analytics ................................................................................................. 5

Evolution du digital analytics de 1993 à aujourd’hui .................................................................................... 6

1993 : début de l’analyse Web grâce à l’analyse des logs ............................................................................. 7

7.1 Schéma simplifié du fonctionnement de la récolte des données via les logs ........................................... 8

1997 : première utilisation de la méthode de récolte des données par tag JavaScript .............................. 10

8.1 Introduction ............................................................................................................................................ 10

8.2 Définition et fonctionnement des tags JavaScript .................................................................................. 10

8.3 Schéma simplifié du fonctionnement de la récolte des données via les tags ........................................ 11

Les solutions majeures de digital analytics ................................................................................................. 15

9.1 Les valeurs ajoutées des solutions payantes .......................................................................................... 16

9.2 Le coût des solutions payantes ............................................................................................................... 17

Exemples de rapport ................................................................................................................................... 18

Évolution des solutions majeures de digital analytics de 1993 à nos jours................................................. 20

Positionnement des solutions majeures de digital analytics ...................................................................... 22

Les communautés qui gravitent autour du digital analytics ....................................................................... 24

2010 : Lancement des Tag Management System (TMS) ............................................................................. 27

14.1 Définition et fonctionnement d’un TMS ................................................................................................. 27

14.2 Avant et après l’arrivée des TMS ............................................................................................................ 28

14.3 Fonctionnalités avancées des TMS ......................................................................................................... 29

14.4 Les solutions majeures de TMS .............................................................................................................. 31

14.5 Evolution des principales solutions de TMS de 2007 à aujourd’hui ....................................................... 31

2012 : Création de la directive européenne sur les cookies ....................................................................... 32

15.1 Introduction ............................................................................................................................................ 32

15.2 Que dit la loi exactement ? ..................................................................................................................... 33

15.3 Subtilités à connaitre .............................................................................................................................. 33

15.4 Comment se mettre en conformité avec la loi ? .................................................................................... 34

15.5 Les solutions pour se mettre en conformité avec la loi .......................................................................... 35

La révolution technologique à lancer .......................................................................................................... 36

16.1 Introduction ............................................................................................................................................ 36

16.2 Présentation ........................................................................................................................................... 36

16.3 Les grands événements de l’évolution des technologies de stockage ................................................... 37

Les prochaines grandes tendances ............................................................................................................. 38

Page 3: Breve histoire-digital-analytics-par-brice-bottegal

© 2016 Brice Bottégal – @bricebottegal - bricebottegal.com 2

Préambule

Comme le disait Nicolas Machiavel, penseur humaniste italien du XVIème siècle, il est

nécessaire de connaitre le passé pour bien comprendre le présent et construire l’avenir.

L’objectif de cette étude est de faire un retour historique sur la discipline, les principaux

événements qui ont marqué son évolution et de tenter de prédire les prochaines tendances.

Elle s’adresse à la fois aux débutants et aux confirmés ayant des connaissances techniques

ou non qui souhaitent améliorer leur culture digital analytics en (re)découvrant son histoire.

Cette étude est une amélioration et une mise à jour de l’article « Histoire du Web analytics »

disponible sur le blog : bricebottegal.com qui a été lu plus de 10.000 fois. Le blog a été mis à

jour avec le contenu de cette étude, n’hésitez pas à y partager vos retours.

A propos de l’auteur

Brice Bottégal a débuté sa carrière chez Hub’Sales, une agence

spécialisée dans le conseil en digital analytics, en tant que consultant

digital analytics. Il a pris ensuite la responsabilité de l’avant-vente et a

participé au lancement de la solution d’assurance qualité Hub’Scan. Suite

au rachat de Hub’Sales par le groupe Business & Decision, Brice Bottégal

a rejoint l’éditeur TagCommander en tant que product manager.

TagCommander édite une des solutions majeures de Tag Management

System mais aussi une solution de data management et une solution de

suivi et pilotage de l’acquisition de trafic. Brice Bottégal est également

professeur de digital analytics à l’école HETIC depuis 6 ans.

Page 4: Breve histoire-digital-analytics-par-brice-bottegal

© 2016 Brice Bottégal – @bricebottegal - bricebottegal.com 3

Le digital analytics, une activité cruciale pour les annonceurs

Les annonceurs ont compris que leur présence digitale était devenue indispensable dans le

marketing et la commercialisation de leurs produits / services et qu’elle ne « cannibalisait »

pas leur présence traditionnelle.

Ils ont aussi compris que leur présence digitale n’existait pas que grâce à l’acquisition de trafic

mais essentiellement grâce à sa monétisation et donc aux visiteurs que les annonceurs

réussissent à convertir en client, en inscrit, ou encore en internaute engagé.

Cependant, aujourd’hui, les prospects / clients utilisent une multitude d’appareils (PC,

téléphones, tablettes, TV etc.) pour se connecter à de nombreux supports (sites Web, sites

mobiles, applications etc.) via un nombre croissant de canaux de communication online (liens

sponsorisés, emailing, display etc.). A cela s’ajoute les supports offlines (presse écrite, TV,

radio etc.) avec lesquels les annonceurs doivent jongler en harmonie.

L’ensemble forme un écosystème complexe qui rend difficile le marketing et la

commercialisation des produits / services des annonceurs :

Page 5: Breve histoire-digital-analytics-par-brice-bottegal

© 2016 Brice Bottégal – @bricebottegal - bricebottegal.com 4

Heureusement, une des spécificités des supports et canaux de communication online (par

rapport aux supports et canaux de communication offline) est qu’ils sont entièrement

mesurables et donc pilotables à la performance.

L’objectif majeur de tous les annonceurs aujourd’hui est de comprendre leur écosystème pour

savoir le piloter, l’optimiser de manière semi-automatisée et fournir à leur prospect / client

l’expérience la plus personnalisée possible.

Le digital analytics est une des composantes permettant d’atteindre cet objectif.

Définition du digital analytics

Le digital analytics c’est la mesure, le suivi et l’analyse du comportement des visiteurs dans le

but d’augmenter les performances des annonceurs.

C’est une discipline transversale à ces trois domaines du digital marketing :

La discipline est basée sur l’utilisation d’une ou plusieurs solution(s) de mesure d’audience qui

récolte des données sur les visiteurs et génère des rapports à analyser.

Page 6: Breve histoire-digital-analytics-par-brice-bottegal

© 2016 Brice Bottégal – @bricebottegal - bricebottegal.com 5

Présentation du marché du digital analytics

Le marché du digital analytics en Europe et en Amérique du nord est mature.

On y distingue principalement 3 types d’acteur : les annonceurs, les agences et les éditeurs.

Les annonceurs sont conscients de la valeur ajoutée que leur apporte le digital analytics et

cela quel que soit leur(s) modèle(s) économique(s). Ils sont maintenant quasiment tous

équipés d’une ou plusieurs solutions.

De nombreuses agences généralistes ou spécialisées se sont lancées dans le domaine du

conseil en digital analytics et accompagnent de plus en plus d’annonceurs.

L’accompagnement va généralement de l’aide au choix de la solution jusqu’à l’analyse des

données et la rédaction de recommandations d’optimisation. Certaines agences font

également de l’achat média, c’est-à-dire qu’il achète pour leur client annonceur des espaces

pour diffuser leur publicité, des liens sponsorisés etc. Le but est de faire venir des visiteurs

qualifiés sur le site Web de l’annonceur. Ils sont alors généralement rémunérés en prélevant

un pourcentage du budget média investi. Dans la plupart des cas, pour être neutre et tiers de

confiance, les agences ne mêlent pas activité de conseil en digital analytics et achat média.

Les agences ont fortement contribué à l’évolution rapide de la maturité du marché grâce à leur

compétence et à l’expérience acquise par l’accompagnement de l’ensemble de leur client.

En parallèle, les éditeurs de solution jouent aussi un rôle important dans l’évolution de la

maturité du marché. Ils sont en effet chargés de répondre et d’anticiper les besoins des

annonceurs via la mise à disposition de fonctionnalité adaptée et facile à prendre en main.

Généralement, un annonceur travaille avec une ou plusieurs agence(s) qui se charge pour lui

de gérer ses relations avec le ou les éditeurs (Criteo, Google par exemple pour l’achat média,

Adobe Analytics pour le digital analytics etc.).

Il est aussi possible que l’annonceur ait des ressources compétentes en interne pour gérer lui-

même les relations avec son ou ses éditeur(s).

Page 7: Breve histoire-digital-analytics-par-brice-bottegal

© 2016 Brice Bottégal – @bricebottegal - bricebottegal.com 6

Evolution du digital analytics de 1993 à aujourd’hui

Page 8: Breve histoire-digital-analytics-par-brice-bottegal

© 2016 Brice Bottégal – @bricebottegal - bricebottegal.com 7

L’évolution du digital analytics est étroitement liée aux évolutions du Web.

Trois évolutions majeures du Web ont bouleversé le digital analytics : deux évolutions

technologiques, l’arrivée du langage JavaScript et des nouvelles technologies de stockage et

une évolution légale : la directive européenne sur les cookies.

L’arrivée du langage JavaScript a révolutionné la discipline en permettant de collecter de

nouvelles données de façon plus précise (voir le chapitre « 1997 : première utilisation de la

méthode de récolte des données par tag JavaScript »).

La démocratisation des nouvelles technologies de stockage a rendu possible de nouveaux

usages comme l’accès et l’utilisation des données en temps réel à des fins d’optimisation des

performances digitales tant au niveau de l’acquisition de trafic que de la personnalisation (voir

le chapitre « La révolution technologique à lancer »).

L’application de la directive européenne sur les cookies dans les pays de l’union européenne

a obligé les annonceurs à demander le consentement de leur visiteur avant l’utilisation de

solution de suivi de leur comportement. Les annonceurs doivent maintenant trouver un juste

milieu entre le fait d’être en accord la loi et le fait de toujours collecter plus de données (voir le

chapitre « 2012 : création de la directive européenne sur les cookies »).

Dans le domaine du digital analytics, suite à la création du marché par la solution webtrends,

deux événements majeurs ont marqué l’évolution de la discipline : la sortie de la solution de

mesure d’audience gratuite Google Analytics et la sortie des premiers Tag Management

System (TMS). Ces deux événements ont modifié le marché. La solution Google Analytics a

largement contribué au développement de la discipline. Elle est connue de tous et rare sont

les annonceurs à ne pas l’avoir déjà utilisée. Les solutions de TMS sont maintenant

incontournables et facilitent tous les jours la vie des équipes marketing (voir les chapitres

suivant sur « Les solutions majeures de digital analytics » et « 2010 : lancement des Tag

Management System (TMS) »).

1993 : début de l’analyse Web grâce à l’analyse des logs

Le digital analytics est né grâce au protocole http qui a la particularité d’enregistrer chaque

échange entre le visiteur et le site Web dans un fichier log. C’est grâce à ces données que

l’analyse du comportement des visiteurs a pu débuter.

Un protocole est un ensemble de règles définies pour un type de communication. Si on veut

trouver une analogie dans la vie courante, le protocole utilisé pour parler avec une autre

personne pourrait être le langage. Il y aurait alors un protocole français, anglais ou encore

français canadien. Le protocole http est le protocole que nous utilisons tous les jours pour

afficher les pages Web des sites que nous visitons.

Page 9: Breve histoire-digital-analytics-par-brice-bottegal

© 2016 Brice Bottégal – @bricebottegal - bricebottegal.com 8

Nous l’utilisons inconsciemment en le renseignant dans la barre d’adresse de notre navigateur

Web, lorsque nous souhaitons visiter un site :

Emplacement du protocole HTTP et du WWW dans une adresse Web classique

Vous connaissez surement d’autres protocoles comme le protocole https, qui est une version

sécurisée du protocole http de plus en plus utilisée ou encore le protocole ftp par exemple.

Le protocole http a été inventé en 1990 par Tim Berners-Lee avec les url et le langage HTML

pour créer le World Wide Web (qui est la signification de l’acronyme WWW visible dans la

majorité des adresses web également).

7.1 Schéma simplifié du fonctionnement de la récolte des données via les logs

Voici un extrait de fichier log :

Extrait d'un fichier log

Le premier travail des solutions de mesure d’audience fonctionnant à partir de l’analyse des

logs est d’attribuer chacune des demandes (chaque ligne du fichier log correspond à une

demande, aussi appelée « hit », de la part du navigateur Web) au bon visiteur. Cela permet

ensuite de reconstituer les visites de chacun d’eux sur la base de leur adresse IP.

Page 10: Breve histoire-digital-analytics-par-brice-bottegal

© 2016 Brice Bottégal – @bricebottegal - bricebottegal.com 9

Au début du Web (de 1990 à 1996), les pages étaient des pages statiques composées quasi-

exclusivement de texte et de lien. Un hit était donc équivalent à l’affichage d’une page. Petit à

petit, les pages se sont beaucoup enrichies avec l’arrivée d’images, de vidéos, d’animations

grâce à des technologies comme l’AJAX ou le HTML5. Étant donné que chaque hit correspond

à l’appel d’un élément de la page, le nombre de hits a augmenté de façon exponentielle ce qui

a rendu difficile la reconstitution des visites par les solutions de digital analytics via l’analyse

des logs. De plus, la mesure des interactions avec les contenus dynamiques (lecture d’une

vidéo etc.) était quant à elle impossible étant donné que ces interactions n’entrainent, par

défaut, aucune écriture dans les logs.

D’autres nouveautés externes à l’évolution des sites Web ont vu le jour et ont dégradé la

qualité des données récoltées via l’analyse des logs : l’apparition des moteurs de recherche

et de leur robot, les serveurs proxys permettant de surfer anonymement, l’attribution

d’adresses IP dynamiques par les Fournisseurs d’Accès à Internet (FAI) et les techniques de

mise en cache des contenus intégrées au système de gestion de contenu (CMS).

L’évolution des pages et du Web en général ont rendu inutilisable l’analyse des logs.

Aussi, les services marketing se sont vite appropriés le Web du fait de sa valeur ajoutée. Pour

ces services, l’analyse des fichiers logs s’est révélée être une méthode trop technique pour

être facilement utilisable.

La mesure d’audience via l’analyse des logs était donc devenue inadaptée.

Les éditeurs de solution de digital analytics ont dû faire évoluer leur méthode de récolte des

données avec l’évolution du Web.

Aujourd’hui, la récolte des données via l’analyse des logs n’est quasiment plus utilisée. La

solution Urchin de Google, l’une des dernières basée sur l’analyse des logs, rachetée en 2005

pour créer Google Analytics, n’est plus vendue ni supportée depuis le 28 mars 2012.

Page 11: Breve histoire-digital-analytics-par-brice-bottegal

© 2016 Brice Bottégal – @bricebottegal - bricebottegal.com 10

1997 : première utilisation de la méthode de récolte des données par tag

JavaScript

8.1 Introduction

Deux ans après la création du langage JavaScript (JS) les éditeurs de solution de digital

analytics ont créé la méthode de récolte des données via l’utilisation de tag JavaScript.

8.2 Définition et fonctionnement des tags JavaScript

Un tag est un bout de code JavaScript.

Voici un exemple de tag de la solution Google Analytics :

Exemple de tag de la solution Google Analytics

Google Analytics a été pris en exemple car c’est la solution la plus répandue

Le tag des solutions digital analytics doit être inséré sur toutes les pages du site Web.

Le tag est exécuté par le navigateur au chargement de la page, il récolte des données sur le

visiteur et sur sa visite : des informations concernant la page en cours de visualisation, le

navigateur utilisé, la zone géographique, la résolution d’écran, etc. Il envoie ces données à un

serveur distant, ou local dans de rares cas, suivant la solution de mesure d’audience utilisée.

La solution associe ensuite, dès réception, ces données à la bonne visite et au bon visiteur.

Elle les stocke et les restitue enfin sous forme graphique à l’utilisateur en temps réel ou avec

un délai maximum de 24h.

Page 12: Breve histoire-digital-analytics-par-brice-bottegal

© 2016 Brice Bottégal – @bricebottegal - bricebottegal.com 11

8.3 Schéma simplifié du fonctionnement de la récolte des données via les tags

Les tags de la majeure partie des solutions sont constitués de deux éléments :

- L’initialisation des différentes variables et l’appel des fonctions

- Une librairie JavaScript contenant l’ensemble des définitions des différentes fonctions

appelées dans le tag pour obtenir et envoyer les données

Reprenons l’exemple du tag Google Analytics présenté plus haut :

Exemple de tag de la solution Google Analytics

Les lignes 1 et 10 correspondent à l’ouverture et à la fermeture de la balise JavaScript

indiquant au navigateur que le code qui suivra devra être interprété comme du code

JavaScript.

Page 13: Breve histoire-digital-analytics-par-brice-bottegal

© 2016 Brice Bottégal – @bricebottegal - bricebottegal.com 12

Les lignes 7 et 8 permettent respectivement de définir le numéro de la propriété Google

Analytics (il existe en général une propriété par site Web) et d’envoyer l’information qu’une

page a été vue. En complément de la page vue, Google Analytics enverra d’autres

informations sur l’internaute et sa visite aux serveurs de Google Analytics (ex. : résolution

d’écran, navigateur etc.).

Les lignes 2 à 5 permettent entres autres d’appeler la librairie JavaScript contenant les

définitions de l’ensemble des fonctions disponibles.

Voici un extrait du contenu de la librairie JavaScript de Google Analytics :

Extrait du contenu de la librairie JavaScript de Google Analytics

La définition de la fonction appelée plus haut est surlignée (voir la librairie JavaScript Google

Analytics complète). Cette librairie, pour diminuer son poids (environ 25Ko) et donc son temps

de chargement, a été volontairement minifiée (suppression des sauts de ligne, de l’indentation

etc.) et obfusquée (remplacement du nom des variables par des lettres etc.) par Google. Elle

est donc telle quelle difficilement lisible.

Si vous voulez la rendre plus lisible en supprimant la minification, vous pouvez utiliser par

exemple le service en ligne jsbeautifier. Sur ce site, il vous suffit, de copier-coller le contenu

de la librairie JavaScript puis de cliquer sur le bouton « Beautify JavaScript or HTML ».

Chez certains éditeurs comme Google, la librairie est commune à tous les utilisateurs de la

solution et est hébergée sur les serveurs de l’éditeur. Dans la solution Adobe Analytics par

exemple, la librairie est hébergée sur les serveurs de l’annonceur et peut donc être spécifique

à chaque annonceur. Le choix entre hébergement local ou distant de la librairie, s’il est permis

par la solution, dépend des besoins de l’annonceur.

Chaque solution de mesure d’audience dispose de son propre tag incluant sa propre librairie.

Le tag doit être placé en général juste au-dessus de la balise </body> ou de la balise </head>.

Les valeurs prises par chacune des variables inclues dans le tag sont généralement

contextuelles. Elles peuvent dépendre de la page en cours de visite (la catégorie de contenu

etc.), de la visite (niveau d’engagement etc.) ou du visiteur (sexe, âge etc.). La valeur de

chaque variable et les données envoyées sont donc différentes d’une page à l’autre.

Page 14: Breve histoire-digital-analytics-par-brice-bottegal

© 2016 Brice Bottégal – @bricebottegal - bricebottegal.com 13

Une fois les données récoltées par le tag, il ne reste plus qu’à les envoyer aux serveurs de la

solution de mesure d’audience. L’exécution de la fonction d’envoi (pour Google Analytics, la

fonction « send ») contenue dans le tag transmet l’ensemble des données récoltées sur le

visiteur et sur sa visite. Ces données sont récoltées via différentes sources : la première, celle

présentée ci-dessus, par l’intermédiaire des variables présentes dans le tag, la seconde par

l’intermédiaire des cookies (fichiers textes propres au navigateur Web) qui permettent de

stocker des informations spécifiques sur le visiteur, et enfin la troisième par l’intermédiaire du

navigateur qui détient un certain nombre d’information sur le visiteur (résolution d’écran,

navigateur utilisé etc.).

Les données sont transmises via une requête composée de plusieurs paramètres contenant

chacun une ou plusieurs données sur le visiteur et sur sa visite.

La requête est envoyée en utilisant la méthode d’envoi GET (en utilisant le protocole HTTP ou

HTTPS en fonction du protocole utilisé par la page Web où est exécuté le tag).

Voici un extrait de requête faite par la solution Google Analytics :

Extrait de requête de la solution Google Analytics (visualisée grâce à la console du navigateur Google Chrome)

On constate par exemple que le paramètre tid prend la valeur du numéro de compte Google

Analytics défini dans le tag (voir le code du tag plus haut).

Il est possible de visualiser les requêtes effectuées vers l’ensemble des solutions en utilisant

le debugger du navigateur (exemples : sur Firefox, le plugin Firebug est souvent utilisé et sur

Chrome, le Chrome Developer Tools). Les données sur le visiteur et sur sa visite sont en

général envoyées grâce à la méthode GET sous forme de paramètre via l’appel d’une image

transparente d’1×1 pixel. Une fois reçues par les serveurs de la solution de mesure d’audience,

les données sont enregistrées et traitées.

Capture d’écran de Chrome Developer Tools (raccourci : CTRL + MAJ + i)

Page 15: Breve histoire-digital-analytics-par-brice-bottegal

© 2016 Brice Bottégal – @bricebottegal - bricebottegal.com 14

Les noms des paramètres utilisés par les solutions dans les requêtes qui sont envoyées à

leurs serveurs sont différents des noms des variables utilisées dans le tag à cause de la limite

de taille des requêtes envoyées. Cette limite est variable d’un navigateur à l’autre mais est en

moyenne de 3000 caractères (pour les requêtes réalisées en utilisant la méthode GET). Si la

requête envoyée dépasse cette limite, elle est coupée par le navigateur et le serveur de la

solution ne reçoit alors qu’une partie des données. C’est pour cela que les noms des

paramètres utilisés par les solutions dans leurs requêtes sont souvent très courts.

Cette différence entre noms des paramètres des requêtes et variables utilisées dans le tag

rend fastidieux la vérification des données envoyées.

C’est la raison pour laquelle les solutions fournissent en général un tableau descriptif de

chaque paramètre permettant de s’assurer de la valeur de chacun d’entre eux (exemple :

tableau descriptif des paramètres Google Analytics).

Si l’implémentation de la solution a bien été réalisée, une requête est faite par page vue étant

donné que le tag de la solution aura été soigneusement inséré sur toutes les pages. Si

l’annonceur souhaite mesurer un ou plusieurs éléments précis contenus dans la page (ex. : le

nombre de téléchargement d’un fichier, le nombre de lecture d’une vidéo etc.), autant de

requêtes supplémentaires qu’il y a d’éléments précis mesurés seront envoyées aux serveurs

de la solution.

La méthode de récolte des données via l’utilisation des tags JavaScript permet de quasiment

tout mesurer, des transactions e-commerce jusqu’au nombre de clics effectués sur n’importe

quel élément de la page.

La mesure du nombre de visiteur unique reste cependant approximative et devrait plutôt être

appelée navigateur unique (terme utilisé dans la solution ComScore Digital Analytix, racheté

par Adobe en novembre 2015). En effet, les solutions créent et utilisent un cookie (propre au

navigateur du visiteur et stocké dans celui-ci) pour identifier spécifiquement chaque visiteur. Il

suffit alors qu’un visiteur se rende sur le même site avec deux navigateurs différents (en ayant

préalablement supprimé ses cookies s’il s’est déjà rendu sur le site) pour que la solution de

digital analytics utilisée comptabilise 2 nouveaux visiteurs uniques au lieu d’un seul.

Page 16: Breve histoire-digital-analytics-par-brice-bottegal

© 2016 Brice Bottégal – @bricebottegal - bricebottegal.com 15

Les solutions majeures de digital analytics

Les solutions de digital analytics gratuites et payantes

Toutes ces solutions fonctionnent en SaaS (Software As A Service). On s’y connecte donc

comme on se connecte à son webmail par exemple.

Certains éditeurs comme webtrends ou IBM proposent des versions installées (dite “On-

Premise”) de leur solution pour répondre aux besoins de certains annonceurs mais les

demandes dans ce sens tendent à diminuer.

Suite au lancement de sa solution payante Google Analytics Premium, Google est devenu le

seul éditeur à proposer à la fois une solution payante et une solution gratuite performante. La

stratégie de proposer une solution gratuite dans un premier temps puis une solution payante

permet à Google aujourd’hui de disposer d’un nombre très important d’utilisateurs de sa

solution et donc de prospect. Google peut ainsi accompagner les annonceurs tout au long de

l’évolution de leur maturité en leur permettant de passer de la version gratuite à la version

payante en douceur, à la fois pour les équipes métiers et techniques.

Les annonceurs matures ayant des besoins avancés utilisent les solutions payantes et les

annonceurs débutants se tournent plutôt, dans un premier temps, vers Google Analytics.

Il n’y a pas de meilleure solution de digital analytics mais plutôt une solution plus adaptée que

les autres pour répondre à un besoin donné. Une expression de besoin organisée, claire et

exhaustive est donc cruciale pour garantir le choix de la bonne solution.

Aussi, le principal facteur de réussite de la mise en place d’une stratégie digital analytics

efficace repose beaucoup plus sur les personnes internes / externes utilisant la solution plutôt

que sur la solution elle-même.

Page 17: Breve histoire-digital-analytics-par-brice-bottegal

© 2016 Brice Bottégal – @bricebottegal - bricebottegal.com 16

Il faut donc prévoir dans l’enveloppe budgétaire initiale « l’après », c’est-à-dire la suite de la

mise en place de la solution : qui va l’utiliser ? Qui va analyser les données et faire des

recommandations ? Qui va mettre en place ces recommandations et mesurer les résultats ?

Trop souvent encore, les annonceurs sont équipés d’une ou plusieurs solutions performantes

mais n’utilisent que 50% de leurs capacités faute de temps et de budget pour recruter un digital

analyste ou pour faire appel à une agence pour les accompagner.

9.1 Les valeurs ajoutées des solutions payantes

Les solutions payantes se différencient des solutions gratuites pour 5 raisons principales :

Une garantie contractuelle de support (jusqu’à 24h/24h, 7 j. / 7 j. en langue locale)

Une garantie contractuelle de disponibilité des serveurs de collecte de données et de

rapport (en général à plus de 99%) et de performance (temps de traitement des

requêtes jusqu’à l’affichage dans les rapports)

Une garantie contractuelle de la propriété des données

Un service conseil et commercial attitré

Des fonctionnalités avancées inclues dans une suite de produits complémentaires pour

répondre aux besoins des annonceurs tout au long de l’évolution de leur maturité

Page 18: Breve histoire-digital-analytics-par-brice-bottegal

© 2016 Brice Bottégal – @bricebottegal - bricebottegal.com 17

9.2 Le coût des solutions payantes

Le coût des solutions payantes est basé en général sur l’achat d’une licence annuelle

comprenant un pack de requêtes.

En fonction des besoins de l’annonceur, des produits complémentaires au produit de base

peuvent être souscrits. Un cout annuel fixe et / ou variable supplémentaire sera alors à prévoir.

Les licences sont généralement souscrites pour une durée de 1 an.

Il y a, si la solution est correctement implémentée, au moins une requête faite par page vue.

Si l’annonceur mesure grâce à sa solution le nombre de clic sur les liens sortant, les liens de

téléchargement de fichier etc., on peut atteindre sur certaines pages vues 4 à 5 requêtes par

exemple. Voici une base de calcul à adapter pour estimer son nombre de requêtes par an :

(Nombre de pages vues sur l’année N-1) + (pourcentage de croissance prévisionnelle de

pages vues sur l’année N) + (25% des pages vues prévisionnelles sur l’année N * 3).

La dernière parenthèse comprend l’ajout de l’estimation des pages vues entrainant plus d’une

requête (ici on estime que 25% des pages vues prévisionnelles sur l’année N comporteront 3

requêtes).

Exemple pour un site ayant 1.000.000 de pages vues sur son année N-1 et prévoyant une

croissance de 10% de son nombre de pages vues sur l’année N :

( 1.000.000 + (10% de 1.000.000) ) + (25% de 1.000.000 * 3) = 1.850.000 requêtes.

Attention à ne pas sous-estimer son nombre de requête car si le pack de requête acheté est

dépassé, un surcoût, au prix unitaire d’une requête, est facturé. Le coût unitaire d’une requête

dépend des solutions et du pack de requête acheté (plus le pack de requête acheté est

important, plus le coût unitaire d’une requête est faible).

Globalement, les prix peuvent aller d’environ 5.000 € / an pour un site à faible trafic (inférieur

à 500.000 pages vues par mois) jusqu’à 50.000 € / an pour un site à trafic moyen (plusieurs

millions de pages vues par mois).

Page 19: Breve histoire-digital-analytics-par-brice-bottegal

© 2016 Brice Bottégal – @bricebottegal - bricebottegal.com 18

Exemples de rapport

Voici trois exemples de rapport : le premier lié à l’acquisition de trafic, le second à la navigation

et le troisième à la conversion. Ils sont tous issus de Google Analytics à titre d’exemple. Des

rapports similaires sont disponibles dans les autres solutions de digital analytics.

Voici les différents rapports :

Exemple de rapport Google Analytics sur la performance de l'acquisition de trafic

Exemple de rapport Google Analytics des flux de navigation des internautes

Page 20: Breve histoire-digital-analytics-par-brice-bottegal

© 2016 Brice Bottégal – @bricebottegal - bricebottegal.com 19

Exemple de rapport Google Analytics de l'entonnoir de conversion

Page 21: Breve histoire-digital-analytics-par-brice-bottegal

© 2016 Brice Bottégal – @bricebottegal - bricebottegal.com 20

Évolution des solutions majeures de digital analytics de 1993 à nos jours

Page 22: Breve histoire-digital-analytics-par-brice-bottegal

© 2016 Brice Bottégal – @bricebottegal - bricebottegal.com 21

Le marché du digital analytics a été créé par la société webtrends en 1993.

Entre 1996 et 2000, 6 acteurs suivent le pas et lancent leur solution de digital analytics :

WebSideStory, Omniture, Unica, Coremetrics, NedStat et XiTi.

Le marché a ensuite évolué modérément jusqu’en mars 2005. A cette date, Google fait son

entrée et donne le rythme en rachetant Urchin software en mars 2005 et en lançant Google

Analytics en novembre 2005, soit seulement 8 mois plus tard.

La seule notoriété de la marque Google constitue un avantage important pour l’adoption de

leur solution Google Analytics, qui est en plus gratuite et dont les fonctionnalités évoluent

rapidement. Cette concurrence est bénéfique à la fois pour les annonceurs, car elle pousse

l’ensemble des éditeurs de solution digital analytics à faire évoluer leur produit plus

rapidement, mais aussi pour les autres éditeurs car la maturité du marché évolue plus vite et

donc le nombre de prospect potentiel augmente. Google a sorti Google Analytics Premium,

une version de Google Analytics plus puissante et payante en septembre 2011. Depuis cette

date, Google étend peu à peu ses parts de marché sur les grands comptes.

Une vague importante de rachats a débuté avec celui d’Omniture par Adobe en septembre

2009. Le marché s’est ensuite concentré avec le rachat de Coremetrics et Unica par IBM et

de Nedstat par ComScore. Grâce à ce dernier, ComScore, reconnu pour sa mesure via les

panels, a complété son offre avec la mesure digitale ce qui lui confèrait un positionnement

unique et intéressant vis-à-vis de ses concurrents. La concentration du marché a continué en

novembre 2015 avec le rachat de la solution ComScore digital analytics par Adobe (la solution

ComScore digital analytics aura existé 3 ans et demi).

Grâce à ces rachats, Adobe et IBM ont constitué les premières briques de ce qu’ils appellent

aujourd’hui leur suite de solutions de digital analytics : Adobe Marketing Cloud et IBM

Enterprise Marketing Management (EMM).

L’évolution a été marquée également par la fin brutale des solutions de digital analytics de

Microsoft en mars 2009 (la solution aura existé 3 ans) puis de Yahoo! en juin 2012 (la solution

aura existé 5 ans) à cause d’une vague de suppression des activités non génératrices de

revenu dans les deux cas (ces deux solutions étaient gratuites).

Trois solutions restent indépendantes aujourd’hui sur le marché : webtrends, AT Internet et

Webtrekk. Ces solutions tirent leur épingle du jeu : webtrends avec sa volonté d’innovation,

AT Internet est leader sur le marché Français et Webtrekk est leader sur le marché Allemand.

A noter également, l’initiative open-source de Piwik avec deux offres, une offre basique lancée

en mars 2008 et une offre professionnelle lancée en septembre 2013.

Page 23: Breve histoire-digital-analytics-par-brice-bottegal

© 2016 Brice Bottégal – @bricebottegal - bricebottegal.com 22

Positionnement des solutions majeures de digital analytics

Les 7 solutions majeures

Etude « Magic quadrant », catégorie « Digital Marketing Analytics » par le cabinet Gartner (septembre 2015)

Page 24: Breve histoire-digital-analytics-par-brice-bottegal

© 2016 Brice Bottégal – @bricebottegal - bricebottegal.com 23

On retrouve dans cette étude les solutions Adobe, Google, IBM, comScore et webtrends. Les

solutions non présentes sont les solutions AT Internet et Webtrekk. Seules les solutions de

digital analytics fournissant une suite de solutions éprouvée sont présentes dans cette

analyse. Cette suite de solution a pour objectif de répondre à l’ensemble des besoins des

annonceurs, de la collecte de données jusqu’à l’analyse et l’optimisation.

Google est leader dans cette étude. Grâce à la sortie de sa solution payante Google Analytics

Premium et aux autres produits de sa suite (dont Doubleclick, Adwords, Retargeting etc.),

Google a la suite de solution la plus complète du marché.

Adobe est également leader dans cette étude. Adobe, suite au rachat d’Omniture, a créé la

suite Adobe Marketing Cloud comprenant toutes les solutions de la suite d’Omniture. Cette

suite de solution a ensuite été étoffée avec le rachat de la solution Française Neolane pour

renforcer la suite sur le suivi et l’optimisation de l’acquisition de trafic. Neolane est devenu le

produit Adobe Campaign au sein de la suite Adobe Marketing Cloud. Par ailleurs, la solution

de mesure Adobe Analytics et la solution de testing et personnalisation Adobe Target de la

suite Adobe Marketing Cloud sont intégrables dans les solutions Dreamweaver, Flash, et

Flash Builder de la suite Adobe Creative grâce à des extensions.

IBM est challenger dans cette étude. IBM, suite aux rachats des solutions Coremetrics et Unica

entres autres, a créé la suite Entreprise Marketing Management (EMM) qui fait partie

dorénavant de l’offre « IBM’s Smarter Commerce » composée, entre autre, du framework e-

commerce WebSphere Commerce.

ComScore est visionnaire dans cette étude. ComScore Digital Analytix, suite à son rachat en

novembre 2015 par Adobe, devrait contribuer à l’amélioration du classement d’Adobe dans la

prochaine version de l’étude tant sur la capacité à délivrer que sur l’exhaustivité de sa suite.

webtrends est un acteur de niche dans cette étude au même titre que d’autres acteurs

spécialisés dans des domaines précis (comme Visual IQ par exemple dans le domaine de

l’attribution). En effet, webtrends ne dispose que d’une solution de digital analytics et d’une

solution de testing et de personnalisation alors que les autres éditeurs disposent de solution

d’optimisation de l’acquisition de trafic par exemple.

En résumé, Google et Adobe sont leaders, IBM est challenger et webtrends est un acteur de

niche comme les éditeurs AT Internet et Webtrekk qui ne sont pas présents dans cette étude.

Page 25: Breve histoire-digital-analytics-par-brice-bottegal

© 2016 Brice Bottégal – @bricebottegal - bricebottegal.com 24

Les communautés qui gravitent autour du digital analytics

Le digital analytics en Amérique du nord et en Europe était, à ses débuts, une discipline

confidentielle et peu pratiquée. C’était difficile pour les premiers pratiquants de trouver des

ressources et de partager leur expérience. Le niveau de maturité progressait donc lentement.

Cela en a poussé certains à se réunir sous forme de communauté. La première initiative a été

lancée aux Etats-Unis avec la Web Analytics Association (WAA) en 2003 (renommée depuis

en Digital Analytics Association).

Elle a été créée par Jim Sterne, Andrew Edwards et Bryan Eisenberg (de gauche à droite) :

Elle s’articule autour de plusieurs pôles :

Evangélisation

Education

Evènement

Internationalisation de la discipline

Gestion des membres / sponsoring

Recherche

Définition de standards

Elle a de multiples objectifs dans chacun de ses pôles, l’objectif transverse est d’évangéliser

la discipline en présentant sa valeur sous forme de cas concrets.

Elle est surtout active aux Etats-Unis même si elle est présente également en Europe.

Ensuite, Eric Peterson, un consultant reconnu en digital analytics aux Etats Unis, a lancé en

2004 le premier forum dédié au digital analytics. Le forum est soutenu et modéré par la Digital

Analytics Association. Il a été très actif de 2005 à 2011 (jusqu’à 661 messages en avril 2008).

Etant donné que la maturité du marché a évolué, il l’est moins aujourd’hui, même s’il y a

toujours environ 30 messages soumis par mois. On y trouve des offres d’emploi, des questions

pratiques liées à des sujets d’implémentation ou de changement de solution, etc.

Page 26: Breve histoire-digital-analytics-par-brice-bottegal

© 2016 Brice Bottégal – @bricebottegal - bricebottegal.com 25

En 2007, Eric Peterson a continué à faire progresser la discipline en lançant les WAW : « Web

Analytics Wednesday ». Les WAW sont des événements digital analytics gratuits permettant

aux personnes intéressées par le digital analytics de se rencontrer et d’échanger. De

nombreux événements ont été organisés aux États-Unis mais aussi en Australie, en France,

en Pologne, etc. Aujourd’hui, les WAW sont moins populaires même si des événements ont

toujours lieu aux États-Unis et en Angleterre notamment.

Enfin, en 2009, pour aider les personnes intéressées par le digital analytics à se lancer et à

acquérir de l’expérience, Eric Peterson, toujours, avec le soutien de deux autres consultants

en digital analytics reconnus (John Lovett et Aurélie Pols) a lancé « Analysis Exchange ».

L’objectif de « Analysis Exchange » est d’aider les associations et les organisations à but non

lucratif à progresser en digital analytics gratuitement avec l’aide d’une personne souhaitant se

faire une expérience (un étudiant par exemple) sous la direction d’un mentor expérimenté. En

2014, soit 5 ans après le lancement, plus de 400 organismes en avaient profité.

En Europe, deux initiatives majeures ont été lancées : les measure bowling et camp.

L’idée des « measure bowling » est de réunir les personnes intéressées par le digital analytics

autour d’une partie de bowling afin de s’amuser et d’échanger.

Les measure bowling ont été lancés sur la base d’un échange sur Twitter :

Page 27: Breve histoire-digital-analytics-par-brice-bottegal

© 2016 Brice Bottégal – @bricebottegal - bricebottegal.com 26

L’idée a été convertie en événement grâce à Peter O'Neill (à gauche) et Nicolas Malo (à droite).

Des measure bowling sont maintenant organisés partout en Europe… Tous à la même date !

Peu après le premier measure bowling à Londres a été organisé le premier Measure camp,

toujours à Londres, en septembre 2012 par Peter O'Neill.

Les measure camp sont des « unconference », c’est-à-dire que le contenu est créé par les

participants eux-mêmes au début de l’événement avec une volonté de partage et d’échange.

Chaque participant peut ensuite se rendre dans la salle où est traité le sujet qu’il souhaite. Les

« unconference » existaient déjà dans beaucoup de domaine dont le développement Web

sous forme de bar camp (le premier bar camp a eu lieu en 2005).

Le concept s’est exporté à Paris avec l’organisation du premier measure camp en juin 2015.

A noter également qu’au fur et à mesure du temps, de nombreuses ressources ont été créées

que ce soit sous forme de livres ou d’articles de blog. On peut citer, entre autres, les livres et

articles de Avinash Kaushik (le premier livre s’intitule : « Web Analytics: An Hour A Day » et le

second s’intitule « Web Analytics 2.0 »), les livres et articles de Bryan Eisenberg (livres « Call

to action », « Waiting for Your Cat to Bark? » et « Always Be Testing »), de Jim Stern (livres

« Social media metrics » et « The Devil's Data Dictionary ») et le modèle de maturité analytics

créé par Stéphane Hamel : « Online Analytics Maturity Model ».

Voici les sites pour suivre l’actualité des événements cités :

- Digital Analytics Association : http://www.digitalanalyticsassociation.org/

- Forum dédié au digital analytics : lien

- Site de « Analysis Exchange » : http://www.webanalyticsdemystified.com/ae/

- Measure Bowling : http://www.measurebowling.org/

- Measure Camp Londres : http://www.measurecamp.org/

- Measure Camp Paris : http://paris.measurecamp.org/

Page 28: Breve histoire-digital-analytics-par-brice-bottegal

© 2016 Brice Bottégal – @bricebottegal - bricebottegal.com 27

2010 : Lancement des Tag Management System (TMS)

14.1 Définition et fonctionnement d’un TMS

Les solutions de Tag Management System sont nées sur la base d’une frustration. Une

frustration des équipes marketing pour gérer rapidement et facilement leurs solutions et une

frustration des équipes techniques dont ce n’est pas le métier de gérer des solutions (ils ont

déjà beaucoup à faire avec la gestion des sites entres autres).

Un TMS est un conteneur regroupant l’ensemble des solutions de l’annonceur et les règles de

déclenchement associées. Le conteneur peut être mis en place sur un site Web ou une

application mobile et est administrable par l’annonceur via une interface Web.

Voici un schéma présentant le fonctionnement global d’un TMS :

Les tags des solutions sont alimentés par une source de donnée unique et normalisée appelée

le datalayer (littéralement « couche de données »). Le datalayer est un objet JavaScript

contenant l’ensemble des variables utiles au fonctionnement des tags.

En plus des tags, le conteneur contient l’intelligence des TMS : les règles de déclenchement.

Les règles de déclenchement sont définies au sein de l’interface d’administration du

conteneur. Elles permettent de déclencher un ou plusieurs tags en fonction du type de page

visité (home page, catégorie, produit etc.) ou encore en fonction du visiteur (son navigateur,

son statut : prospect / client etc.). Les règles de déclenchement peuvent se baser sur les

variables du datalayer mais aussi sur la valeur d’un cookie ou sur l’url de la page par exemple.

Page 29: Breve histoire-digital-analytics-par-brice-bottegal

© 2016 Brice Bottégal – @bricebottegal - bricebottegal.com 28

14.2 Avant et après l’arrivée des TMS

Avant l’arrivée des TMS, les équipes marketing devaient passer par leur direction informatique

ou leur prestataire technique pour ajouter / modifier / supprimer une solution (les délais

pouvaient varier de 1 à 6 mois en fonction du rythme de mise à jour du site de l’annonceur).

Cela induisait la réalisation d’un projet traditionnel long, couteux et source d’erreur du fait du

manque de savoir-faire de la direction informatique ou des prestataires techniques sur ce sujet.

Les initiatives des équipes marketing étaient par conséquent bridées et cela se ressentait sur

les performances des campagnes d’acquisition et du site en général. Beaucoup d’illustrations

concrètes de l’impact négatif de ce manque de réactivité existent. On peut citer notamment

l’impossibilité de lancer une campagne car le tag permettant de mesurer ses résultats ne

pouvait pas être mis en place avant le lancement ou encore l’impossibilité de tester une

solution car son temps de mise en place était trop long par rapport au besoin.

Aujourd’hui les TMS sont devenus une commodité, au même titre que les solutions de digital

analytics, la majorité des annonceurs en sont équipés. Cela leur permet de mettre en place et

gérer leur solution de manière quasi-autonome et rapide et ainsi de répondre à leur besoin

d’agilité (délais de 1 heure à 1 semaine en fonction de la complexité des solutions à ajouter).

Beaucoup de nouveaux usages ont été démocratisés via les fonctionnalités offertes par les

TMS comme la mise en concurrence de plusieurs solutions par l’intermédiaire d’un A/B test,

la capacité de définir facilement un niveau d’engagement des visiteurs ou encore la possibilité

de retraiter / nettoyer certaines données avant de les envoyer à une solution.

Page 30: Breve histoire-digital-analytics-par-brice-bottegal

© 2016 Brice Bottégal – @bricebottegal - bricebottegal.com 29

14.3 Fonctionnalités avancées des TMS

Certains TMS ont été plus loin que les autres en fournissant des fonctionnalités avancées

telles que la déduplication sur la base de la customer journey du visiteur, le suivi des

performances des tags, l’assurance qualité des données envoyées ou encore la possibilité de

se mettre en conformité avec les contraintes légales de chaque pays.

Voici, par exemple, une présentation de l’intérêt de la déduplication :

4 tags de prestataire sont appelés sur la page de conversion pour la conversion 1234.

Quel(s) prestataire(s) l’annonceur doit-il rémunérer pour la conversion 1234 ?

Page 31: Breve histoire-digital-analytics-par-brice-bottegal

© 2016 Brice Bottégal – @bricebottegal - bricebottegal.com 30

La déduplication permet de rémunérer uniquement les prestataires d’acquisition de trafic à la

performance qui ont réellement contribué à la vente selon les règles définies par l’annonceur.

Les règles de déduplication définies sont basées sur la customer journey des visiteurs et

permettent de déclencher ou non le tag du prestataire. Si le tag du prestataire ne se déclenche

pas car la règle de déduplication associée ne le permet pas, alors celui-ci n’enregistrera pas

la conversion. Il ne demandera donc pas d’être rémunéré pour celle-ci.

La customer journey regroupe les points de contact entre chaque visiteur et l’annonceur :

Voici quelques exemples de règles de déduplication :

- Je déclenche le tag de mon prestataire de retargeting 1 (et donc je le rémunère) si le

point de contact lié est présent dans la customer journey quelle que soit sa position

- Je déclenche le tag de mon prestataire d’affiliation A si le point de contact lié est

présent en dernière position dans la customer journey

- Je déclenche le tag de mon prestataire d’affiliation B si le point de contact lié est

présent en première position dans la customer journey

Imaginons que ces règles soient mises en place et que la customer journey du visiteur soit

celle ci-dessus. Dans ce cas, seul le tag du prestataire de retargeting 1 se déclenchera et seul

le prestataire de retargeting 1 sera donc rémunéré pour la conversion 1234.

Sans déduplication, les annonceurs payent souvent plusieurs fois pour la même conversion.

Les annonceurs ont deux possibilités pour dédupliquer. Ils peuvent se servir de leur solution

de TMS pour automatiser la déduplication ou alors réaliser la déduplication manuellement.

Pour réaliser la déduplication manuellement, les annonceurs doivent prendre une solution de

référence qui est en général leur solution de digital analytics. Si leur solution de digital analytics

leur indique que la vente 1234 a été remportée par le canal Affiliation avec le prestataire A

alors l’annonceur dédupliquera manuellement en enlevant la conversion 1234 des conversions

revendiquées par les autres prestataires. Il y a deux inconvénients majeurs à la déduplication

manuelle : le premier est que c’est un travail long et fastidieux, le second est que la vision de

l’attribution de la conversion donnée par les solutions de digital analytics est souvent une vision

« dernière position » / « last click » uniquement sans même prendre en compte la visualisation

des bannières (post-impression / « post-view »).

Page 32: Breve histoire-digital-analytics-par-brice-bottegal

© 2016 Brice Bottégal – @bricebottegal - bricebottegal.com 31

14.4 Les solutions majeures de TMS

Voici les solutions majeures de TMS existantes aujourd’hui :

A noter que la solution d’Adobe, Adobe Dynamic Tag Management, n’est fournie gratuitement

que si l’annonceur dispose d’au moins une des solutions de la suite Adobe Marketing Cloud.

14.5 Evolution des principales solutions de TMS de 2007 à aujourd’hui

Voici un retour historique sur l’évolution de la discipline :

Page 33: Breve histoire-digital-analytics-par-brice-bottegal

© 2016 Brice Bottégal – @bricebottegal - bricebottegal.com 32

2012 : Création de la directive européenne sur les cookies

15.1 Introduction

Les cookies sont des fichiers textes stockés dans le navigateur du visiteur. Ils contiennent des

informations sur le visiteur qui sont utiles aux sites visités pour se rappeler de l’identifiant et

du mot de passe du visiteur par exemple ou encore pour lui afficher des publicités ciblées.

Afin de garantir à ses citoyens un meilleur niveau de protection de leurs données personnelles,

l’Union Européenne (UE) a mis en œuvre une directive obligeant les sites à demander aux

internautes la permission de déposer des cookies sur leur navigateur.

Cette directive doit être adaptée et appliquée par tous les pays membres de l’UE.

En France, par exemple, elle a pris le nom de la loi “Paquet télécom” et a été mise en

application le 24 août 2011. Cette loi a fait polémique dès sa sortie car les annonceurs et les

éditeurs ont tout de suite vue l’impact négatif qu’elle pourrait avoir sur leur activité. En effet, si

les internautes décidaient massivement de refuser les cookies, beaucoup de solutions ne

seraient plus capables de fonctionner et les annonceurs n’auraient plus de données à

analyser. Certains éditeurs seraient obligés de modifier le fonctionnement de leur solution avec

une forte probabilité de le dégrader. Côté annonceur, pour un site média par exemple qui se

rémunère en grande partie grâce à la publicité, si les cookies étaient désactivés, la majeure

partie des solutions de diffusion des publicités ne fonctionnerait plus ou aurait un

fonctionnement dégradé. Le chiffre d’affaire généré par les publicités pourrait donc baisser.

La France et les autres pays de l’union Européenne ont laissé du temps au marché pour

s’adapter. Par exemple, les premiers contrôles en France ont été effectués en octobre 2014

(soit 3 ans après la mise en application de la loi).

Des solutions existent aujourd’hui pour se mettre en conformité avec la loi.

Page 34: Breve histoire-digital-analytics-par-brice-bottegal

© 2016 Brice Bottégal – @bricebottegal - bricebottegal.com 33

15.2 Que dit la loi exactement ?

La directive européenne peut avoir été adaptée différemment en fonction des pays de l’UE.

En France et en Italie par exemple, les visiteurs doivent être informés clairement des finalités

et doivent pouvoir choisir de ne pas avoir de cookie de déposé lorsqu'ils visitent un site.

Les sites ont donc l'obligation de solliciter, au préalable de tout dépôt de cookie, le

consentement de leurs visiteurs.

Cette demande de consentement s'applique sur la majorité des cookies, qu’ils collectent des

données à caractère personnel ou non.

Exemple de cookies devant faire l’objet d’une demande de consentement :

Les cookies des solutions d’acquisition de trafic (retargeting, liens sponsorisés etc.)

Les cookies des solutions de digital analytics

Etc.

Seuls les cookies liés au fonctionnement du site sont exemptés du recueil du consentement

des visiteurs (exemple : panier d’achat, identifiant de session, whishlist etc.).

Voici un exemple de demande de consentement recommandé par la France (via la CNIL) :

L’enjeu pour les annonceurs est de trouver un juste milieu entre collecter toujours autant de

données pour aider à la prise de décision tout en étant conformes à la loi sur les cookies.

15.3 Subtilités à connaitre

Le terme « cookie » est à prendre au sens large, ce terme recouvre également :

o Le finger printing (méthode d’identification sans cookie)

o Tous types d’identifiant (utilisés par les systèmes d’exploitation mobile par ex.)

o Les cookies utilisés dans les animations Flash

Le message d’information affiché doit informer clairement les visiteurs de la finalité des

cookies qui seront déposés s’ils donnent leur consentement. De plus, il est conseillé

de créer une page dédiée, type « Mentions légales », expliquant de manière plus

détaillée ce qu’est un cookie, son fonctionnement, etc. et de placer un lien vers cette

page dans le message d’information

Les visiteurs doivent pouvoir modifier à tout moment leur consentement

Le consentement des visiteurs doit être redemandé tous les 13 mois

En poursuivant votre navigation sur ce site, vous acceptez l’utilisation de [ Cookies ou autres traceurs ] pour vous proposer [Par exemple, des publicités ciblées adaptées à vos centres d’intérêts] et [ Par exemple, réaliser des statistiques de visites]. En savoir plus

Page 35: Breve histoire-digital-analytics-par-brice-bottegal

© 2016 Brice Bottégal – @bricebottegal - bricebottegal.com 34

Les visiteurs soumis à une demande de consentement qui ne répondent ni

« J’accepte » ou « Je refuse » et qui poursuivent leur navigation sont considérés

comme des visiteurs ayant accepté. Par conséquent, la demande de consentement

devra apparaitre sur la première page de leur visite mais plus sur les pages suivantes

(sauf si le visiteur se rend suite à son arrivée sur le site sur la page de mentions légales,

dans ce cas, le message d’information devra toujours être affiché)

Le classement par catégorie des solutions est conseillé mais pas obligatoire. Il permet

aux visiteurs non pas de choisir d’accepter ou de refuser toutes les solutions, mais de

choisir d’accepter ou de refuser une ou plusieurs catégories de solutions. C’est

bénéfique à la fois pour le visiteur car cela lui permet de donner un consentement fin

et personnalisé, et à la fois pour l’annonceur car cela lui permet d’obtenir le

consentement pour des solutions qu’il n’aurait probablement pas obtenu si le visiteur

avait simplement répondu « Je refuse »

La loi s’applique sur tous les supports : sites Web et mobile et applications

Il n’est pas autorisé de simplement orienter le visiteur vers une page décrivant

comment, dans chaque navigateur, supprimer ses cookies

15.4 Comment se mettre en conformité avec la loi ?

Pour se mettre en conformité avec la loi, il faut demander le consentement des visiteurs

préalablement au dépôt de cookie et mettre en application ce consentement.

La mise en application de ce consentement est généralement faite par une solution dédiée

créée par un éditeur ou une solution développée par l’annonceur.

Elle peut être faite de deux manières :

1. Mise en application immédiate : si l’internaute refuse le dépôt de cookie pour

l’ensemble ou une partie des solutions alors ces solutions seront désactivées et aucun

dépôt de cookie ne sera fait

2. Mise en application à posteriori : si le visiteur refuse le dépôt de cookie sur l’ensemble

ou une partie des solutions, cela n’aura aucun impact direct sur celles-ci. Le dépôt de

cookie sera fait. Cependant, la solution utilisée pour demander le consentement des

visiteurs demandera aux solutions pour lesquelles le visiteur a refusé de donner son

consentement de ne pas utiliser / supprimer les données enregistrées.

Page 36: Breve histoire-digital-analytics-par-brice-bottegal

© 2016 Brice Bottégal – @bricebottegal - bricebottegal.com 35

15.5 Les solutions pour se mettre en conformité avec la loi

Les solutions leader pour se mettre en conformité avec la loi sont les solutions de TMS.

La majorité des TMS fournit cette fonctionnalité nativement ou sous forme d’option.

Les TMS peuvent désactiver immédiatement les solutions pour lesquelles le visiteur a refusé

de donner son consentement. Ce qui fait qu’aucun cookie n’est déposé par celle-ci.

Voici un schéma présentant comment les tags sont désactivés en fonction du consentement :

Voici un schéma présentant la mise en application a posteriori du consentement :

(*) Le « comportement » de l’étape « Réponse ou comportement » signifie par exemple la poursuite de la visite du

visiteur sans avoir donné de consentement (du coup le consentement est implicite)

Page 37: Breve histoire-digital-analytics-par-brice-bottegal

© 2016 Brice Bottégal – @bricebottegal - bricebottegal.com 36

La révolution technologique à lancer

16.1 Introduction

La brique de base des solutions de digital analytics, la collecte de données, repose souvent

sur des technologies anciennes datant du début des années 1990. Les solutions de digital

analytics doivent franchir le pas et migrer vers de nouvelles technologies pour parvenir à

répondre aux nouveaux besoins des annonceurs.

16.2 Présentation

La révolution technologique a été lancée (in)volontairement par Google entre 2003 et 2004

avec la sortie de son étude MapReduce et du système d’organisation de fichier associé :

GoogleFS (Google File System). MapReduce est un modèle de programmation permettant de

distribuer intelligemment la charge de collecte et de calcul d’un grand nombre de données sur

des grappes de serveur (« cluster » en anglais).

Doug Cutting, qui travaille alors pour la fondation Apache Software (connue principalement

pour l’édition du serveur Web Apache), sur le projet Nutch (crawler de page Web) s’est

intéressé à cette étude dès sa sortie. En effet, il rencontrait à ce moment les mêmes problèmes

de traitement de grand volume de données (plusieurs PetaOctets de données, 1 PetaOctet

est égal à 1.000.000 de GigaOctets). En 2006, Doug Cutting rejoint l’équipe de Yahoo! pour

créer une version open-source de MapReduce. Le projet aboutira au lancement de Hadoop et

du système de fichier associé HDFS (Hadoop File System).

Devant la croissance exponentielle de la quantité de données récoltées, Facebook a rencontré

au fur et à mesure les mêmes problèmes de stockage que Google et s’est intéressé dès sa

sortie à Hadoop. Hadoop était utilisé en interne chez Facebook principalement par des profils

techniques pour deux raisons : l’interrogation des données était complexe et requérait des

compétences techniques, et les résultats fournis n’étaient pas fournis en temps réel mais au

bout de plusieurs heures (en fonction des données à récupérer et de la quantité de données

collectées). Pour favoriser l’utilisation des données en interne, Facebook a alors décidé de

rendre ses données plus accessibles en créant un langage d’interrogation simple similaire au

langage SQL (Structured Query Langage). Ce projet fut déployé et utilisé en interne en 2007

puis mis à disposition en open source en 2008 sous le nom de Hive et du langage

d’interrogation associé HiveQL (Hive Query Langage). La mise à disposition en open source

a favorisé son adoption et son développement grâce à la communauté de développeurs.

Yahoo est aujourd’hui la société qui utilise le plus grand cluster Hadoop au monde avec 455

PetaOctets en 2014 (en Europe, c’est Criteo qui revendique utiliser le plus grand cluster).

Il reste alors un problème à résoudre : le temps trop important de récupération des données.

Page 38: Breve histoire-digital-analytics-par-brice-bottegal

© 2016 Brice Bottégal – @bricebottegal - bricebottegal.com 37

Google, en 2010, montre de nouveau la voie en sortant une étude sur Dremel.

Dremel permet d’interroger une grande quantité de données et d’avoir une réponse en quasi

temps réel. Cette technologie est utilisée en interne chez Google depuis 2006 pour analyser

les données collectées par les différentes applications (Google Maps etc.). Dremel est une

technologie complémentaire à MapReduce. Depuis 2012, Google propose cette technologie

sous forme d’un service Web : Google BigQuery qui permet de stocker et d’interroger un grand

nombre de données facilement et rapidement.

En 2011, Twitter, également confronté aux mêmes enjeux de stockage, rachète une société

prometteuse dans le domaine, Backtype et publie en open source ensuite Storm. Storm permet

aussi de stocker et d’interroger facilement en temps réel un grand nombre de données.

Hadoop, Hive, Storm ne sont que des exemples d’un grand nombre de solution open source

disponible pour répondre au besoin de stockage et d’interrogation simple et si possible rapide

d’une grande quantité de données. Comme toujours, il n’y a pas de meilleures technologies,

mais une technologie plus adaptée qu’une autre à un besoin donné.

L’essentiel est donc de bien connaître ses besoins en terme de quantité de stockage,

d’interrogation et de temps de réponse pour choisir la technologie la plus adaptée.

16.3 Les grands événements de l’évolution des technologies de stockage

Voici un retour historique sur les grands événements de l’évolution des technologies de stockage :

Page 39: Breve histoire-digital-analytics-par-brice-bottegal

© 2016 Brice Bottégal – @bricebottegal - bricebottegal.com 38

Les prochaines grandes tendances

La maturité et les besoins des annonceurs ont évolué.

Ils ne veulent maintenant plus simplement des rapports personnalisés ou non de suivi de leur

performance Web. Ils veulent que leur solution leur offre une vue plus fine de leur

investissement média avec une vue complète sur la customer journey de leurs visiteurs tout

en ayant la possibilité d’appliquer des modèles d’attribution différents. Ils veulent que leur

solution leur permette de mesurer les complémentarités entre le online et le offline. Enfin, ils

veulent avoir la possibilité de prendre des actions d’optimisation, idéalement semi-

automatiquement, pour optimiser les objectifs de leur site / application.

Les solutions de digital analytics doivent évoluer du statut de solution de mesure et de suivi

du comportement des visiteurs au statut de solution d’optimisation des performances digitales.

Cette évolution peut être effectuée en se constituant, via le rachat d’autres solutions ou en

nouant des partenariats, une plateforme permettant de répondre au besoin de collecte de

données, de suivi, jusqu’au besoin de personnalisation des campagnes et du site / application.

Cela tout en s’assurant d’être neutre et tiers de confiance en ne gérant pas l’achat média ou

en ayant une activité d’achat média indépendante de l’activité de mesure et d’optimisation.

Cette évolution, déjà difficile, a en plus des prérequis technologiques (voir chapitre ci-dessus).

La majeure partie des solutions ont un programme de migration technologique enclenché ou

partiellement terminé pour permettre à leurs utilisateurs de bénéficier des avantages des

nouvelles technologies.

A cela s’ajoute la concurrence, toujours plus féroce entre les solutions existantes, et l’arrivée

de nouveaux concurrents, plus agiles, résolument tournés vers l’optimisation et ayant un socle

technologique reposant déjà sur les nouveaux standards.

Seules les solutions de digital analytics qui se sont orientées vers ces nouveaux besoins seront

sereines, conserveront et feront évoluer leur part de marché d’ici à 2018.

Nous devrions assister aussi de 2016 à 2018 à l’émergence d’une nouvelle forme de collecte

de données : le server-side. Le server-side, après la collecte de données via l’analyse des logs

puis via les tags JavaScript, sera la troisième génération de collecte de données. L’idée est

de ne plus envoyer plusieurs fois les mêmes données à plusieurs solutions mais de n’envoyer

les données qu’une seule fois à sa solution de TMS qui se chargera de les envoyer ensuite à

l’ensemble des solutions souhaitées. Les solutions auxquelles sont envoyées les données

restent bien sûr administrables via une interface Web par l’annonceur. Les points forts du

server-side, par rapport à la méthode de récolte des données via les tags JavaScript, sont la

réduction drastique des temps de chargement des pages ainsi qu’une meilleure fiabilité et

maitrise des données envoyées. L’adoption du server-side est ralentie par le manque de

compatibilité des solutions avec ce mode de fonctionnement. Cependant, de plus en plus

d’annonceurs sont conscients des avantages et poussent pour que l’ensemble des solutions

qu’ils utilisent deviennent compatibles.

Page 40: Breve histoire-digital-analytics-par-brice-bottegal

© 2016 Brice Bottégal – @bricebottegal - bricebottegal.com 39

Au sujet de l’encadrement de la collecte de données, l’invalidation du mécanisme « Safe

Harbor » devra être suivi de prêt. La décision de la Cour de Justice de l’Union Européenne a

été rendue le 06 Octobre 2015. Cette décision invalide le mécanisme « Safe Habor »

permettant le transfert de données vers les entreprises domiciliées aux Etats-Unis. Par

conséquent, il ne sera plus possible d’envoyer des données de visiteur de l’union Européenne

vers les Etats-Unis dès le mois de février 2016. Le mécanisme « Safe Harbor » a été invalidé

car le niveau de sécurité des données hébergées aux Etats-Unis n’est plus jugé assez

important. En France par exemple, la CNIL (l’autorité de l’état chargée du respect de la vie

privée) examine actuellement avec ses homologues au sein du G29 les conséquences

juridiques et opérationnelles de cet arrêt.

Au-delà du digital analytics, certains types de solutions sont à suivre particulièrement :

- Data Management Platform (DMP) : BlueKai, Krux, Lotame, Exalate etc.

- Tag Management System (TMS) : Tealium, Ensighten, Signal, TagCommander etc.

- Personnalisation et testing : Optimizely, Qubit, A/B Tasty etc.

- Visualisation de données : Tableau, Qlik, Tibco Spotfire etc.

Voici un schéma présentant certaines hypothèses d’évolution :

Page 41: Breve histoire-digital-analytics-par-brice-bottegal

© 2016 Brice Bottégal – @bricebottegal - bricebottegal.com 40

Le marché des TMS est un marché assez mature, les solutions de TMS sont déjà en train de

remonter dans la chaine de valeur sur la collecte et la segmentation de données en allant sur

le marché des DMP ou en mêlant une approche DMP avec une couche d’activation de

données sous forme de testing et de personnalisation comme Qubit.

Le marché des DMP est naissant, les solutions de DMP sont pour l’instant uniquement dans

une phase de croissance de leur part sur les différents marchés même si le marché commence

à s’organiser en grandes familles (DMP orientée Publisher etc.).

Les solutions de testing et personnalisation sont elles aussi en phase de croissance de leur

part de marché. Une hypothèse d’évolution serait qu’elles collectent de plus en plus de

données en remontant vers le domaine des DMP pour parfaire leur capacité de

personnalisation et de testing.

Le marché des solutions de visualisation de données est mature. Deux acteurs sortent

systématiquement du lot : Tableau et Qlik même s’il existe une multitude d’autres acteurs. Une

hypothèse d’évolution serait qu’elles aillent plus loin que la visualisation de données en gérant

elles-mêmes la collecte et en intégrant de l’intelligence dans leurs solutions. Elles se

rapprocheraient alors du marché des DMP.

Le marché du digital analytics est mature, l’ensemble des solutions tentent, en créant ou en

rachetant des solutions, de composer une suite de produit composée au moins d’un produit

dans ces grands domaines : DMP, TMS, Testing et personnalisation et visualisation de

données. Cela pour aller vers l’optimisation des performances digitales. Comme toujours, la

majorité de ces marchés vont se concentrer : DMP, TMS (poursuite) et personnalisation et

testing. Le marché du digital analytics et de la visualisation de données sont assez structurés

et matures pour continuer tel qu’ils sont aujourd’hui.

A noter également que les solutions de CRM et BI (SalesForce ou SAS par exemple) vont

surement se rapprocher du monde du digital analytics en rachetant un ou plusieurs acteurs de

ces domaines. Pour l’instant, seulement Oracle y a mis un pied en rachetant la DMP BlueKai

en février 2014 pour un montant estimé à $400 millions afin de faire converger CRM et DMP.

Sources :

- Les éditeurs de solution de digital analytics, DMP, TMS, personnalisation et testing

- Présentation de snowplow sur les nouvelles technologies de stockage de données

- Présentation de Hive par l’équipe ingénierie de Facebook

- Article « Google’s Dremel makes big data look small »

- Stackoverflow (pour les questions techniques)

- Article « The history of Hadoop: From 4 nodes to the future of data »

- Site de la CNIL (Commission National Informatique et Liberté)

- Site de la digital analytics association, du measure camp et du measure bowling

- Site Analysis exchange

- Wikipedia