Mémoire de fin d'étude - La big data et les réseaux sociaux

82
Projet de recherche appliquée Marty Chloé CCN 4B Promotion : 2015 - 2016 Tuteur : Clément Brygier Société : Digital Insighters Titre : Co-fondateur et CEO Comment l’explosion quantitative de la data va donner aux marques l’opportunité de mieux cibler et de mieux s’adresser à leurs publics sur les réseaux sociaux alors que l’utilisation et l’exploitation de ces données s’avère être très complexe et pose un problème d’éthique ?

Transcript of Mémoire de fin d'étude - La big data et les réseaux sociaux

Projet de recherche appliquée

Marty Chloé CCN 4B Promotion : 2015 - 2016

Tuteur : Clément Brygier Société : Digital Insighters Titre : Co-fondateur et CEO

Comment l’explosion quantitative de la data va donner aux marques l’opportunité de mieux cibler et de mieux s’adresser à leurs publics sur

les réseaux sociaux alors que l’utilisation et l’exploitation de ces données s’avère être très complexe et pose un problème d’éthique ?

�4

Je tiens à remercier très sincèrement toutes les personnes qui m’ont soutenue et aidée pour la rédaction de ce mémoire.

Je remercie particulièrement mon directeur de mémoire Monsieur Clément Brygier directeur et CEO de Digital Insighters qui a su m’épauler et m’orienter lors de mes recherches et de ma rédaction afin que ce mémoire puisse être tel que je le souhaitais.

Je remercie également Madame Maillet ma tutrice de mémoire ainsi que l’équipe enseignante de l’ISCOM pour leurs conseils si précieux.

Je tiens également à remercier : Zorana Ratkovic, Isabelle Tronchet et Marguerite Leenhardt pour leur temps et leur professionnalisme lors de mes interviews.

Enfin merci aux acteurs qui permettent chaque jour à des centaines de marques de cibler et de produire des contenus adéquats grâce à la Big Data.

Remerciements

�5

Sommaire

I. L’utilisation et l’exploitation des données sur les réseaux sociaux posent des problèmes de complexité et d’éthique..

a. La complexité technique et financière b. La complexité légale c. L’éthique

II. Quelques marques même si elles restent rares voient l’opportunité que peuvent apporter les données..

a. Un ciblage beaucoup plus pertinent b. Des contenus optimisés c. Une meilleure relation client à clé d. Une détection des signaux forts et faibles

III. Mais les marques devraient adopter une stratégie social media intelligence en exploitant les 3 V de la donnée : volume, vitesse et variété..

a. Traiter le volume en déterminant des KPI’s exploitables b. Créer des stratégies real-time data pour faire face à la vitesse c. Prendre en considération la variété des données pour créer une

stratégie pertinente

IV. Conclusion

V. Glossaire

VI. Bibliographie/Webographie

VII. Annexes

Page 7 à 15

Page 7 à 11 Page 11 à 14 Page 15 à 17

Page 42

Page 18 à 34

Page 18 à 24 Page 24 à 28 Page 28 à 32 Page 32 à 34

Page 35 à 15

Page 35 à 37 Page 37 à 39 Page 40 à 41

Page 44 à 45

Page 46 à 47

Page 48 à 84

�6

Les réseaux sociaux sont des espaces qui permettent à tout un chacun de créer des réseaux d’amis et de relations professionnelles. Ces réseaux sociaux génèrent chaque jour des millions de données. En effet chaque minute plus de 4 166 667 likes ont été distribués sur des posts Facebook, plus de 1 736 111 photos ont été likées sur Instagram et 347 222 tweets ont été envoyés sur Twitter. Toutes ces données font parties du web social. Le web est dit social depuis qu’Internet est devenu un espace de socialisation où des millions d’utilisateurs créent et interagissent avec du contenu.

Internet a donc évolué en même temps que les usages. Ces nouvelles pratiques ont contraint les communicants et les marques à trouver une nouvelle manière d’analyser et d’utiliser ce flux de données numériques qu’on appelle la data. C’est pour analyser ces données sur les réseaux sociaux qu’en 2009 le terme «social media analytics» est apparu sur Google. Ce terme désigne le fait de convertir et de transformer en connaissances signifiantes des données non structurées grâce à des outils et des solutions adaptées.

L’analyse des conversations sur les réseaux sociaux représente un enjeux identitaire pour les marques afin de déterminer leur influence, les sentiments des utilisateurs et même prédire des sujets émergeants. Mais ces données représentent également un enjeux financier car selon une étude Syncapse de 2013, un fan Facebook aurait une valeur de 174,17$ . 1

Ce mémoire a pour vocation de répondre à la problématique : «Comment l’explosion quantitative de la data va donner aux marques l’opportunité de mieux cibler et de mieux s’adresser à leurs publics sur les réseaux sociaux alors que l’utilisation et l’exploitation de ces données s’avère être très complexe et pose un problème d’éthique ?» en se basant sur des études concrètes et en induisant des préconisations pour appréhender les trois V de la données : volume, vitesse et variété dans les stratégies social media des marques.

Syncapse - Value of a Facebook Fan - 2013 - : http://www.syncapse.com/value-of-a-facebook-1

fan-2013/#.Vwp7ljb1bkH / Consulté le 28/02/2016

Introduction

�7

a. La complexité technique et financière

La data entraîne une modification et une transformation des organisations mais elle entraîne également une certaine complexité notamment technique. En effet avec plus de 3,2 billion d’utilisateurs du web , le volume de données générées est faramineux. 2

En 2011 l’humanité aurait créé environ 2 zetta octets (Zo) de données numériques ce 3

qui équivaut à 2 millions de To. Cela requiert donc des solutions et des outils adaptés à ces nouveaux ordres de grandeurs afin de récupérer, analyser et utiliser les données. Aujourd’hui nous entendons les termes Hadoop (cf. glossaire), Mapreduce (cf. glossaire), NoSQL (cf. glossaire) ou encore In Memory (cf. glossaire), ce sont ces outils relativement complexes pour des personnes non initiées, qui permettent d’analyser les données.

Depuis plusieurs années les entreprises utilisent ces outils avec des architectures relationnelles de type OLTP (cf. glossaire) pour traiter les données. Ce type d’architecture était efficace lorsqu’il ne fallait analyser que des centaines de gigaoctets voir des teraoctets en mode batch, ce qui veut dire en traitement par lots mais aujourd’hui tout va plus vite, plus loin et ces archi tectures sont pour la p lupar t dépassées. Les utilisateurs métier ont eu l’habitude d’un traitement nécessitant plusieurs semaines voir plusieurs mois. Au final ces outils n’étaient pas pourvus d’une «intelligence» et n’étaient centrés que sur des données structurées ce qui ne permettaient pas l’analyse des données sur les réseaux sociaux étant qualifiées de données non structurées.

BERGE F. "La terre compte 3,2 milliards d'internautes" / Consulté le 04/03/2016 : http://2

bfmbusiness.bfmtv.com/entreprise/la-terre-compte-32-milliards-d-internautes-890165.html

SIMEON G. "Données le vertige" / Consulté le 04/03/2016 http://www.liberation.fr/futurs/2012/12/03/3

donnees-le-vertige_864585

I. L’utilisation et l’exploitation des données sur les réseaux sociaux posent des problèmes de complexité et d’éthique..

�8

C’est dans ce contexte qu’une nouvelle génération d’outils a été développée. La majorité ont été développés en open-source afin de permettre un développement et une innovation en mode agile. La méthode agile a été élaborée en 2011 par 17 acteurs influents en informatique et permet de « proposer un nouveau mode de conception des programmes informatiques. Cette méthode fonctionne sur la base de l'itératif et de l'incrémental, les tâches vont s'effectuer petit à petit, par ordre de priorité, avec des phases de contrôle et d'échange avec le client » . Le but en utilisant cette méthode 4

était réellement de les faire évoluer plus rapidement qu’un fournisseur traditionnel. Facebook ne pouvant exploiter les outils traditionnels a notamment développé ses propres outils comme : Hive , qui permet d'effectuer des requêtes sur un cluster 5

Hadoop en langage SQL et Cassandra qui est une base de données orientée par 6

colonnes de type NoSQL. Cette nouvelle génération d’outils a donné naissance à une architecture dites «scale-out» (cf glossaire) et donc à extensibilité horizontale qui permet de nombreuses applications dédiées. Que ce soit au niveau des outils ou des architectures, le domaine de la Big Data a évolué très rapidement ces dernières années et les marques se sont souvent découragées face à cette évolution technique complexe.

Si certaines marques ont eu le courage et les moyens de s'offrir certains de ses outils, elles en sont tout de même venu à se poser la question de la récupération des données dont elles disposent. II convient de savoir que les données provenant des réseaux sociaux sont à quasiment 85% détenues par les géants : Facebook, Google 7

et Twitter et qui selon leurs envies définissent les règles de la récupération de données. Les marques peinent donc à suivre et à comprendre ces nouveaux usages, les opportunités et les risques de ces données.

Si les entreprises disposent de ces outils, elles en viennent à se poser la question de la récupération des données dont elles disposent.

Sémaweb "La méthode agile" / Consulté le 07/03/2016 : http://www.semaweb.fr/101-prestations/2714

Wikipédia "Hive" / Consulté le 07/03/2016 : https://fr.wikipedia.org/wiki/Apache Hive 5

Wikipédia "Cassandra" / Consulté le 07/03/2016 : https://fr.wikipedia.org/wiki/Cassandra (base de 6

données)

Cnil "Loi 78-17 du 6 janvier 1978" / Consulté le 07/03/2016 : https://www.cnil.fr/fr/loi-78-17-du-6-7

janvier-1978-modifiee

�9

IBM a déclaré que « 90% des données de l'entreprise seraient inexploitables » . Les 8

entreprises utilisent des outils trop traditionnels, en mode macro, et cela entraîne la perte de beaucoup de données. Les données exploitables seraient donc partielles, informelles ou non consolidées. La société a notamment mis en garde les entreprises en déclarant : «Plus la puissance de calcul des ordinateurs progresse et plus les entreprises deviennent bêtes.» et le directeur du département analytics déclarait en 2001 que «les entreprises les plus chanceuses sont capables d'analyser 7 % de leurs données tout au plus». Alan Mitchell, expert britannique de la question des données a également déclaré «le principal défi est celui de la "logistique de l'information" : comment transmettre la bonne information aux bonnes personnes, au bon format, au bon moment, pour éclairer les actions à mettre en place pour servir les objectifs business de l'entreprise sur Internet et dans le monde réel.» La disposition des bons outils n'entraîne donc pas forcément la récupération de la donnée dont veut se servir l'entreprise.

La question d'analyse des données intervient également dans cette complexité technique. En effet aujourd'hui il s'avère être relativement complexe de transférer des gros volumes de données entre l'entrepôt de données et les environnements d'analyse. Cela oblige les organisations à travailler uniquement sur des données agrégées ou échantillonnées car le processus s'avère handicapant pour la découverte et l'exploration de nouvelles données. Les organisations ne sont donc aujourd'hui pas encore équipées pour analyser ces flux.

Admettons que l'entreprise dispose des bons outils, qu'elle a pu récupérer les données des réseaux sociaux des mains de Facebook ou Google, qu'elle a su utiliser un processus court pour éviter le temps d'attente entre l'entrepôt et les environnements d'analyse, il lui faut tout de même se poser la question de la qualification de la donnée qu'elle compte analyser et utiliser. Lors de l'analyse de celle-ci les marques ne mettent pas à distance la qualification. Elles voient les données comme des variables mais pas comme des chiffres. Or les données n'ont pas de sens lorsqu'elles sont traitées en tant que chiffres.

Médias sociaux "Les enjeux de la Big Data à l'heure des médias sociaux" / Consulté le 09/03/2016 8

http://www.mediassociaux.fr/2013/01/25/les-enjeux-de-la-big-data-a-lheure-des-medias-sociaux/

�10

Elles ne mettent également pas à distance la qualité des données ce qui reste l'un des enjeux majeurs de la récupération et de l'analyse de celles-ci. En effet il faut déterminer leur influence et leur pertinence. Par exemple un commentaire n'aura pas le même poids, la même valeur, qu'un article sur un blog et un tweet d'un utilisateur lambda n'aura pas la même valeur qu'un tweet de Jack Dorsey (créateur de Twitter). Une donnée doit donc être analysée pour sa qualité et en terme de variable.

La question de la complexité technique est une réelle interrogation au sein des équipes. Les utilisateurs métiers ainsi que leurs hiérarchies doivent être plus ouverts et intégrer une mentalité d’abondance pour utiliser cette puissance de calcul illimitée afin de transformer les données et créer des nouveaux algorithmes enrichis. Malheureusement aujourd’hui encore trop d’entreprises utilisent des outils d’analyse traditionnels et sont incapables de gérer le tsunami de données qui arrivent des réseaux sociaux. Selon l’étude Axys Consultants réalisée par OpinionWay , ce qui 9

freine les entreprises par rapport à la data sont : la complexité technique (50%) , un manque de compétence (42%) et entre autres les moyens financiers (39%). Cette incapacité et cette peur, est notamment observée dans les grandes entreprises qui fonctionnent en silos étanches et qui freinent les différentes équipes à travailler ensemble. Aujourd’hui encore beaucoup de directions métiers qui cherchent à lancer des projets rapidement pensent qu’un projet affecté aux directions informatiques est couteux et long, alors qu’en réalité cela se révèle dans la majorité des cas inexact. Les métiers doivent accepter de travailler ensemble et de partager leurs informations pour conduire des projets Big Data efficaces et pour rentabiliser ces stratégies.

En terme financier, la data représente également une complexité pour les entreprises comme cité précédemment. Toujours selon l’étude d’Opinion Way, seulement 14% des dirigeants prévoient des investissements sur la Big Data à terme. Les entreprises diminuent leurs effectifs de jours en jours et le nombre de ressources disponibles pour gérer les données diminue alors que le volume des données augmente. Les plates-formes utilisées aujourd’hui pour gérer les données ont besoin de compétences humaines très spécialisées. Cela à d’ailleurs fait émerger un nouveau métier spécialisé : le data scientist.

Axys "Big Data" / Consulté le 09/03/2016 : http://www.axys-consultants.fr/wp-content/files_mf/9

1435679233CPAxys_EtudeBigData_02.07.15.pdf

�11

La diminution des effectifs représente donc un manque alors que en terme de coûts et selon la loi de Moore (co-fondateur d’Intel) la puissance de calcul double tous les 18 10

mois à coût constant, ce qui produit en somme un avantage économique relativement prévisible. Il faut néanmoins mettre en exergue le fait que le coût d’extraction au Go est relativement faible mais le coût des licences des outils est très élevé. Pour une grande entreprise cela peut aller de milliers K€ à des M K€.

Malgré le petit budget dont disposent la plupart des entreprises au niveau de la data cela représenterait donc selon la loi de Moore un investissement constant qui permet entre autre de réduire les coûts des tâches comme le reporting, la collecte de données etc. et leur permet d’innover et d’optimiser les coûts de production.

Durant les prochaines années les entreprises vont devoir choisir parmi différentes stratégies pour déployer la data au sein de leurs stratégies de communication : former leurs employés en interne, former des partenariats stratégiques avec des solutions spécialisées, acquérir une start-up dans l’analyse des données ou faire appel à des fournisseurs tiers en mode SaaS. Chacune de ces solutions engrangera différents niveaux de coûts mais en effet face à l’augmentation des données elles n’auront plus le choix que de se lancer pour se démarquer de la concurrence. Bien sur chaque décision propulsera l’entreprise au statut d’audacieuse et la complexité technique que cela entraînera n’en sera que bénéfique à son fonctionnement. Certaines entreprises investissent déjà lourdement dans l'analyse de données pour s'améliorer et gagner en parts de marchés. Ces entreprises sont : Amazon, Facebook, Google, Uber ou encore Airbnb.

b. La complexité légale

La Big Data entraîne une complexité légale à savoir ses contours qui sont encore flous et posent de nombreuses interrogations. La loi informatique et liberté du 6 janvier 1978 fait la distinction entre données 11

comportementales et données personnelles.

Futura Science "Loi de moore" / Consulté le 09/03/2016 : http://www.futura-sciences.com/magazines/10

high-tech/infos/dico/d/informatique-loi-moore-2447/

Cnil "Loi 78-17 du 6 janvier 1978" / Consulté le 09/03/2016 https://www.cnil.fr/fr/loi-78-17-du-6-11

janvier-1978-modifiee

�12

En effet une donnée dite personnelle est récoltée grâce à un formulaire que les utilisateurs remplissent sur Internet par exemple. En revanche les données dites comportementales sont des données anonymes qui ont été récoltées via un volume important d’utilisateurs. Il convient donc de savoir que seuls les traceurs comportementaux nécessitent l’accord de l’utilisateur alors que les traceurs techniques mis en place par les sites e-commerce par exemple n’ont pas besoin du consentement de l’utilisateur. La loi déclare également : « les données à caractère personnel ne peuvent être collectées et traitées que de manière « loyale et licite » nécessitant d’obtenir un accord préalable des individus et de ne pas les utiliser pour autre chose ». Par ailleurs certaines données dites sensibles sont tout simplement interdites de collecte ou traitement: les données de santé (il existe quelques exceptions), origines raciales, opinions politiques, religieuses etc... Cependant il convient de remarquer que toutes les autres données peuvent être exploitées et que les détournements sont possibles.

La loi ne parvient pas à fixer un cadre clair. La question que se posent les marques est donc de savoir si une donnée est personnelle ou non afin de l'utiliser. La CNIL soulève de nombreux débats à ce sujet car selon ses termes une adresse IP est une donnée personnelle, or une adresse IP est affectée à une machine et non à un individu. Une adresse IP est-elle donc une donnée personnelle ?

Du côté des entreprises la CNIL tente de cadrer leurs agissements. Elle les a notamment, depuis 2014, obligées à supprimer au bout de 13 mois les données personnelles des internautes qu'elles ont pu récolter grâce à des formulaires, (sachant que les données récoltées anonymement ne sont pas inclues dans cette décision). Les entreprises n'ayant pas supprimé les données en 2015 ont donc été mises en demeures par la CNIL. Le géant Facebook a d'ailleurs été mis en demeure en 2016 car il trackait les utilisateurs alors même qu'ils n'étaient pas connectés sur le réseau social. Plusieurs autres faits sont reprochés à Facebook comme : «le recueil et traitement sans consentement des opinions politiques, religieuses, et-liées-à l'orientation sexuelle des utilisateurs, le dépôt des cookies publicitaires sans informations au préalable et le transfert des données des utilisateurs européens vers les Etats-Unis (plus possible

�13

depuis une décision de justice du 6 octobre 2015 )». Le cloud s'avère être également 12

un souci dans l'analyse des données car ils nécessitent de transférer les data vers des serveurs dont la localisation est opaque. Aujourd'hui les entreprises ont besoin d'être rassurées sur le fait que leurs données se seront pas stockées aux Etats-Unis. 13

La présidente de la CNIL va même plus loin car elle «demande aussi que les membres puissent s'opposer à la combinaison de l'ensemble de leurs données à des fins publicitaires». Cela reviendrait à la fin de la publicité ciblée et donc à une grande part des revenus du réseau social, ce qui serait catastrophique pour le bien-être financier du géant. L’entreprise aurait 3 mois pour se remettre en conformité sous peine de poursuites judiciaires.

Du côté des utilisateurs la CNIL met également des actions en place. Elle a mis en place en 2014 une procédure de plainte afin que les utilisateurs puissent se retourner contre les entreprises qui ont dépassé leur délais de conservation des données. Il s’avère cependant très complexe pour les utilisateurs de mener ces procédures et de savoir quelles entreprises conservent leurs données et pourquoi. L’article 40 de la loi permet même que « Toute personne physique justifiant de son identité peut exiger du responsable d’un traitement que soient, selon les cas, rectifiées, complétées, mises à jour, verrouillées ou effacées les données à caractère personnel la concernant, qui sont inexactes, incomplètes, équivoques, périmées, ou dont la collecte, l’utilisation, la communication ou la conservation est interdite.  » Et il existe également un droit d’opposition « Vous pouvez vous opposer, pour des motifs légitimes, à figurer dans un fichier. En matière de prospection, notamment commerciale, ce droit peut s'exercer sans avoir à justifier d'un motif légitime. Vous pouvez vous opposer à ce que les données vous concernant soient diffusées, transmises ou conservées. ».

En effet la data se trouve être une problématique juridique très complexe car elle se trouve au croisement de plusieurs régimes : la propriété intellectuelle, le droit d'auteur, le droit des systèmes d'information et le droit des bases de données.

Cnil / Consulté le 11/03/2016 https://www.cnil.fr/frfinvalidation-du-safe-harbor-par-la-cour-de-justice-de-12

lunion-europeenne-une-decision-cle-pour-la-o

CHEMINAT J. "La justice européenne invalide le Safe Harbor, et après ? / Consulté le 22/04/2016 13

http://www.silicon.fr/justice-europeenne-invalide-safe-harbor-apres-128210.html

�14

De plus la récupération et l’analyse des données n’est encadrée par aucun statut légal. Ce sont les propriétaires de ces contenus qui régissent cet univers. En 2013 la Commission Européenne a mis en place un groupe de travail sensé réfléchir sur le 14

statut légal de cette exploitation automatisée des données mais les résultats ne sont pas encore concluants. Des propositions de licence ont été présentées afin de maintenir un droit de regard sur les projets de recherches mais les défenseurs de «la culture libre» les ont rejeté en indiquant que les données devraient avoir les mêmes droits que la citation. Les contracteurs et les défenseurs de la data ne parviennent donc pas à rédiger un statut légal probant.

L’exploration des données pose également différents problèmes. Il convient que lorsque le nombre de données est trop grand, il faut les exporter pour les analyser mais cela implique qu'elles soient disponibles à l’ensemble du groupe de recherche et donc d'excéder la limite du «cercle familial». De plus en Europe il y a un droit sur les bases de données qui possède un contour flou car il est prévu que les bases durent 15 ans mais elles sont sans cesses réactualisées ce qui change leur statut. L’application de cette loi est donc relativement souple et permet la majorité des initiatives de data mining. Certains experts déclarent donc qu’en état de fait le data mining est interdit car on ne peut pas extraire les données sans l’accord de son propriétaire. Cela dit bon nombre d’experts ne sont pas d’accord avec ces propos. En effet en France le code de la propriété intellectuelle porte sur les créations intellectuelles (oeuvres) mais pas sur les expressions originales (paroles) ce qui revient à dire que les données et les informations individuelles ne sont pas concernées par cette loi.

Si un cadre juridique venait à être déclaré il faudrait se poser la question de son application. Faudrait-il l’appliquer en amont de la loi ou en fonction du résultat ? La loi informatique et liberté n’a pas encore de réponse à cette question et en appelle à une réflexion approfondie. L’Union Européenne travaillerait sur un projet de loi pour répondre à ces différentes questions juridique courant de l’année 2016. Il devrait permettre aux utilisateurs de mieux comprendre et d'avoir un droit de regard sur les données qu'utilisent les marques.

CNPD / Consulté le 11/03/2016 http://www.cnpd.public.lu/fr/commission-nationalehQtivites-eur-inter/14

groupe29findex.html

�15

c. L’éthique

L’éthique est un code moral et comme tout code moral il évolue avec le temps. Le code devient flou lorsqu’il s’agit de la data et cela entraîne une certaine complexité. La revente de données personnelles a toujours existé mais n’était pas aussi médiatisée il y a quelques années. Cela ne fait que très peu de temps que les utilisateurs ont eu connaissance de la récupération et de l’utilisation de leur données à des buts non pour pro lucratif grâce aux médias et à leur curiosité personnelle.

Il serait inexact de déclarer que les utilisateurs sont totalement au fait de ce qu'il advient de leurs données. Pourtant la loi actuelle prévoit que chaque individu a un droit d’accès et de modification sur ses données. Malheureusement personne à ce jour ne prend le temps de lire les mentions légales ou ne demande un droit de regard et de mise à jour sur les données extraites. Dans la plupart des cas ils ne sont tout simplement pas avertis de la récupération de leurs données. Ils sont bien évidemment contre et ne voient pas l'intérêt in fine comme j'ai pu le voir dans mes focus groupes (voir annexe). Pour eux la Big Data n'a rien d'éthique quelque soit l'utilisation, elle peut juste parfois se révéler bienveillante lors de cas exceptionnels.

Du côté des entreprises, peu respectent les valeurs dites morales envers leurs utilisateurs. Elles ne collectent pas les données pour être au service de leurs clients, elles n'utilisent pas ces mêmes données dans un cadre loyal et sincère, elles n'indiquent pas le temps de récupération et de stockage de ces dernières etc. Beaucoup d'entreprises se cachent aujourd'hui derrière des cookies peu clairs afin de contourner la finalité spécifique mentionnée dans la loi de 1978 . Qui prévoit que « le 15

responsable du traitement doit associer à tout traitement de données personnelles une finalité spécifique et la respecter pendant tout le traitement sous peine de lourdes sanctions pénales (5 ans d'emprisonnement et 300.000 euros d'amende). » Elles ne font pas la balance entre leur intérêt légitime et les libertés fondamentales des utilisateurs et cela remet en cause les impacts des études qu'elles mènent, qu'elles soient positives ou négatives.

Données personnelles "Le principe de finalité" / Consulté le 13/03/2016 https://15

www.donneespersonnelles.fr/le-principe-de-finalite

�16

Les organisations peuvent donc respecter la loi en rédigeant des mentions légales qu'aucun utilisateur ne lira jamais, mais cela ne veut pas dire pour autant qu'elles sont bienveillantes. Chaque entreprise détermine comment elle veut exploiter les données et comment elle veut être perçue par rapport à cela. En effet une mauvaise exploitation des données et une mise en lumière des activités illicites des entreprises peuvent engendrer d'énormes scandales et de ce fait ternir l'image des organisations. Pour exemple au Pays-Bas la banque ING direct a été accusée de vente de données clients. Même si cette accusation s'est révélée fausse, les déclarations de la banque étaient floues et cela a gravement nui à leur image. Le problème de confiance entre les utilisateurs et les marques est aujourd'hui un réel enjeux.

Du côté des réseaux sociaux qui détiennent quasiment toutes les données que souhaitent exploiter les marques, il existe une réelle course à la revente des social data* (*données collectées sur les réseaux sociaux). En effet Twitter est associé au géant de l’analyse prédictive GNIP et Facebook à l’entreprise Datasift. Les deux réseaux sociaux sont donc rivaux également sur la revente des données personnelles de leurs utilisateurs. Mais ils se dédouanent de toute infraction au code moral en affirmant qu’ils ne louent l’accès que à des sociétés intermédiaires sélectionnées et que ce sont ces sociétés qui facturent l’exploitation aux annonceurs. Les géants Facebook et Twitter ne considèrent donc pas qu’ils enfreignent un code moral ou éthique et rejettent en quelque sorte la faute aux sociétés intermédiaires.

Plusieurs enjeux sont donc liés à l’éthique de la donnée : la sécurité de celle-ci, la maîtrise, la transparence, le respect de la vie privée et enfin le libre arbitre. En effet aujourd’hui la production de contenu est complexe et peut venir d’une activité humaine, de capteurs, de traitements et d’enrichissements provenants de différents acteurs. Les organisations captent ces multiples flux grâce aux différentes méthodes et solutions, mais cela ne se révèle pas toujours très moral, loin de là.

L’enjeu de disparité internationale se pose également en terme de complexité. En effet les entreprises se trouvant dans plusieurs pays doivent appliquer différentes législations et cela complexifie la collecte et l’utilisation des données.

�17

Les conditions autour de la data ne sont pas les mêmes dans chaque pays et certaines entreprises jouent de ces conditions pour s'approprier un avantage compétitif. L’éthique est donc absente de leurs démarches. Pour regagner la confiance de leurs utilisateurs et in fine promouvoir des services qui se disent respectueux, les entreprises doivent : intégrer la protection de la vie privée dans leurs démarches, garantir un niveau très élevé de protection des données. Mais également garantir une visibilité à l'utilisateur, renseigner sur l'algorithme et le traitement, ainsi que sur la portabilité des données. Ce n'est qu'à ces conditions que les entreprises pourront prétendre mener des stratégies de Big Data qui se veulent respectueuses envers leurs clients/utilisateurs.

C'est une relation de confiance qui doit s'établir avec le marché, pour que l'utilisation de la donnée soit pertinente, durable et garantisse une éthique. Car une stratégie Big Data a pour but de servir l'utilisateur en lui communiquant les bonnes informations au bon moment mais la notion de « service » reste encore peu utilisée par les entreprises actuellement.

�18

a. Un ciblage beaucoup plus pertinent

En ce qui concerne l’audience ou la communauté d’une marque, elle doit être entendue et comprise pour avoir de la valeur, or encore beaucoup de marques aujourd’hui ne parviennent pas à comprendre et à (ré)agir de manière adéquate aux comportements de leurs clients/utilisateurs. Elles ne parviennent pas à exploiter les données récoltées au sujet de leurs utilisateurs à leur avantage. C'est grâce à la Big Data qu'elles peuvent y parvenir.

Les marques se demandent encore comment appréhender et cibler leurs audiences. Elles se questionnent sur le fait de commencer par un ensemble de données sur un public large pour resserrer les utilisateurs et ainsi optimiser leur ciblage ou alors débuter leur ciblage sur un ensemble très restreint pour l’élargir par la suite. Les deux voies d’analyse sont possibles mais l’approche choisie par l’entreprise dépend essentiellement de ses moyens. Les grandes entreprises ayant des moyens et une base de données déjà existante peuvent choisir l’approche d’un ciblage très précis pour l’élargir. Or les startups qui ne disposent pas encore de base données ne peuvent privilégier cette approche. Il est donc très important de choisir sa voie d'entrée dans une stratégie Big Data visant à cibler de manière plus fine une audience, sinon cela risque de ne rapporter aucun bénéfice et une perte d'argent considérable à la marque. Aujourd’hui concrètement il n’est plus question de segmentation au sens propre du terme. Le ciblage doit être fluide et évolutif, au rythme des changements de comportement des consommateurs. En effet, une audience ne se comporte quasiment jamais de la même manière d’une campagne digitale à une autre. Les marques doivent donc être réactives, spontanées et adapter leur ciblage en temps réel pour espérer délivrer le bon message aux bonnes personnes et au bon moment.

II. Quelques marques même si elles restent rares voient l’opportunité que peuvent apporter les données..

�19

Prenons l'exemple du groupe media belge Roularta qui a utilisé la plateforme de 16

marketing relationnel Selligent afin d'augmenter son nombre d'inscrits et améliorer sa 17

rétention grâce à un ciblage plus précis. La plateforme a proposé une approche reliant le transactionnel et les données CRM afin de cibler lors des campagnes de communication les non-abonnés de manière qualitative et de ne plus importuner les personnes étant déjà abonnées. L'entreprise a donc défini des segments comportementaux (abonnés, non-abonnés) afin de communiquer ces informations précieuses à leur service publicitaire dans le but de réserver des emplacements publicitaires dédiés à un profil utilisateur défini et non plus réserver un emplacement dans une section définie sans réelle cible déterminée.

Un ciblage doit donc être précis et juste pour rapporter un quelconque bénéfice à la l'entreprise. Les marques ne doivent cependant pas se lancer dans un ciblage excessif et répétitif qui risque de lasser les utilisateurs. Encore trop de marques martèlent sans arrêt les internautes de publicités sur Facebook, Twitter et Instagram après un seul regard sur un site web. Mais cela apporte t-il réellement une plus value ? Cette démarche se conclue t-elle par un achat ou du brand love ? Dans la quasi totalité des cas la réponse est non. La fréquence de diffusion des annonces et le re-ciblage/ re-targetting de celles-ci doit donc être maîtrisée avec parcimonie afin d’être efficaces et toucher les bons utilisateurs au moment propice.

Le trop grand nombre de publicités non ciblées et de re-targetting mal utilisés a d'ailleurs fait émerger une société florissante nommée Adblock. La société propose un plugin nommé "AdblockPlus" à ajouter à son navigateur. Ce 18

dernier bloque par exemple tous les boutons likes sur Facebook afin de ne plus être profilé par des publicitaires à des fins commerciales.

Roularta Media Group : http://www.roularta.be/fr/accueil/RC-1184688299798.html16

Selligent "Roularta" / Consulté le 14/03/2016 https://www.selligent.com/sites/default/files/media/case-17

study-roularta-fr.pdf

Adblock : https://adblockplus.org/fr/subscriptions18

Exemple d'application AdBlockPlus sur Facebook

�20

La publicité sur les réseaux sociaux que ce soit sur Facebook, Twitter, Instagam ou YouTube est intéressante pour les annonceurs, dans la mesure où elle permet de diffuser des campagnes, en fonction des centres d'intérêts des utilisateurs. La liste "anti-sociale" de la société Adblock, qui comme son nom l'indique "boycotte" les réseaux, se révèle être une réelle catastrophe pour les marques et pour les réseaux sociaux. Privées de données fines et précises sur les utilisateurs les marques devraient retomber dans des campagnes de masse, non ciblées qui globalement rapportent des bénéfices financiers beaucoup moins élevés. Les réseaux sociaux quant à eux perdraient également des données précieuses qu'ils peuvent revendre aux annonceurs. Ce manque à gagner plongerait les "géants" dans un vaste trou financier.

A l'heure où les consommateurs ne veulent plus de publicités intrusives et de masses, il est donc nécessaire pour les marques de créer des stratégies Big Data efficaces afin de cibler plus précisément les utilisateurs et ne plus diffuser de publicités de manière excessive.

Comme évoqué plus haut, les utilisateurs aujourd’hui souhaitent être considérés comme des personnes à part entière / uniques et ne plus subir un ciblage de masse et être noyés par des publicités qui ne sont pas en adéquation avec leurs envies, leurs valeurs etc. Malgré le fait qu’ils soient derrière un écran comme des millions d’autres utilisateurs et même si la récupération de leurs données ne les enchantent guère, ils préfèrent de loin recevoir des annonces ciblées en fonction de leurs goûts et à des moments bien définis plutôt que des annonces inappropriées .

Les marques doivent prendre en compte de nombreuses variables pour cibler correctement leurs audiences sur les réseaux sociaux : la visibilité, l’engagement, le comportement, les réactions mais aussi l’étape suivante.

�21

Après la visite de la page fan de la marque où va l’utilisateur ? que fait-il ?. La position sociale, socio-démographique, les centres d'intérêts etc. Toutes ces variables doivent amener la marque à se demander comment elle peut cibler et mieux servir à l’avenir son audience sur les réseaux sociaux.

Même si encore beaucoup de marques sont dans l’incapacité de visualiser les avantages d'une analyse, de nombreuses marques ont su tirer profit de la technologie Big Data pour obtenir un ciblage beaucoup plus pertinent lors de leurs communications digitales sur les réseaux sociaux.

Celles qui ont su prendre le virage de la Big Data ce sont donc lancées dans le social media listening : "activité d’écoute (d’une entreprise ou d’une marque le plus souvent) des internautes présents sur les médias sociaux. (...) Le social listening concerne principalement l’écoute des propos concernant directement ou indirectement la marque. Mais pas seulement, car il peut être également profitable à la marque pour identifier par exemple des tendances de consommation que des études marketing conventionnelles n’auraient pas encore révélées." Grâce à cette écoute, elles peuvent par exemple déterminer que leur cible B2B est active le lundi matin sur Linkedin depuis son ordinateur et que leur client final est plus actif le samedi matin depuis son smartphone via Facebook. L’analyse de l’audience sur les réseaux sociaux permet réellement de déterminer les différents profils et comportements ainsi que les insights qui vont permettre de créer des campagnes impactantes et pertinentes.

Facebook ayant capté cette opportunité a développé depuis plusieurs années : Custom Audience. Cette solution permet d’obtenir de manière très sécurisée et anonyme un volume important de données. Les marketers peuvent donc s’en servir pour créer des segments d’audience propre à leur marque sur le réseau social grâce à : des données CRM (de leurs clients), des données de campagne (ouvertures mails), des données provenant de leur site internet et des données tierces. Il est important néanmoins de déterminer des objectifs clairs et de déterminer la valeur de chaque entrée pour faire les croisements adéquats afin d’obtenir in fine le bon ciblage. Si une marque souhaite cibler une audience grâce à différentes données elle peut se baser sur des critères : géographiques, socio-démographiques, les centres d’intérêts etc.

�22

Facebook a donc comme Twitter, Quantcast, Facebook ou encore Google capté la demande des entreprises concernant les frais qu'entraine la Big Data pour obtenir une base de données très pointue pour faire de la publicité. Ce nouveau marché leur permet donc aujourd'hui, de se faire beaucoup d'argent en réduisant considérablement l'accès à la donnée ciblée. En 2015 Nextperf, une plateforme de marketing à la performance, a lancé : « Look alike audience  » qui permet de partir d’une audience d'un site web pour utiliser Facebook Custom Audience afin de rapprocher les profils similaires non acquis à ceux déjà acquis grâce aux données.

Le site de e-commerce Spartoo a servi de cobaye et a testé pendant 10 jours cette 19

solution sur différents segments bien identifiés. Selon leur communiqué de presse : +12% de taux de conversion et +138% de taux de clic. En somme il y a eu -9% de CPO (coût par achat) ce qui représente une économie non négligeable en terme de ciblage d’audience.

Nous pouvons également citer le cas d’Etam , acteur majeur de la mode féminine sur 20

les marchés européens qui avait pour objectif d’adapter sa segmentation de reciblage suivant sa stratégie média et sa problématique ROIste ainsi que de mettre en place un levier de reciblage à la performance sur un objectif de coût d’acquisition dédupliqué. Grâce à la solution Look alike de Nextperf les résultats sont significatifs : +7% de ventes globales, 400K de visites en 8 mois, 0,3% de taux de clic moyen. Les solutions se diversifient donc pour garantir aux marques un ciblage toujours plus adéquat en fonction avec des KPI's des marques.

La société Axciom travaille avec une solution qu'elle a développée, pour de nombreux clients : Social Connect qui permet avec Facebook Custom audience d’affiner le 21

ciblage des publicités. Pour un éditeur outre-manche qui souhaitait recruter de nouveaux abonnés sur Facebook, la société a testé et comparé deux mécaniques display sur le réseau social.

Spartoo : http://www.nextperf.com/wp-content/uploads/2015/03/Spartoo-FR.pdf19

Etam : http://www.nextperf.com/wp-content/uploads/2015/03/Etam-FR.pdf20

Axciom "Social Connect" / Consulté le 14/03/2016 : http://dq1prkp9edh4z.cloudfront.net/wp-content/21

uploads/2013/11/Acxiom-accompagne-Paypal-dans-la-segmentation-et-la-personnalisation-de-sa-relation-client.pdf

�23

La première campagne a utilisé un ciblage par rapport aux informations renseignées par les membres (âge, sexe, localisation, centres d’intérêts..). La seconde à été réalisée à partir des données de Acxiom et ciblée sur des profils de lecteurs quotidiens. Les résultats ont montré que la publicité réalisée avec le ciblage Axciom était plus performante et que le taux de clic avait été de 60% supérieur à la première campagne. Un autre exemple de la société Acxiom est également parlant. La chaîne d’hôtel Best Western, a dans un premier temps transféré sa base de clients potentiels sur Facebook pour faire correspondre le coeur de cible aux utilisateurs du réseau social. Dans un second temps Acxiom a étendu la couverture de cibles Facebook à 700 000 « lookalike ». Le regroupement de ces deux bases de données combiné à la solution de la société a permis plus de 15 millions d’impressions et 3 194 clics. Les marques ont donc réellement besoin d’utiliser des solutions innovantes et adaptées aux nouveaux usages des utilisateurs ou de s’allier à des partenaires qui peuvent optimiser leur ciblage de manière conséquente.

Outre Facebook, la data est également présente sur Twitter, pour obtenir un ciblage plus précis. Il faut savoir que Twitter a été le premier réseau social à louer l’accès aux données de ses utilisateurs à des intermédiaires a des fins marketing. Si le profil des utilisateurs n’est pas détaillé comme celui d’un utilisateur Facebook, toute la mécanique de ciblage du réseau repose sur des critères comportementaux et contextuels qui permettent un ciblage au moins aussi précis. Le réseau social permet depuis 2015 d’établir des audiences personnalisées en fonction de publicités (Twitter Ads). Les marques envoient simplement un fichier avec les données de leurs clients, le réseau social rapproche ce fichier avec des personnes actives sur Twitter afin de créer un ciblage pertinent et efficace pour les campagnes.

La société Axciom utilise cette méthodologie dans ces solutions datamining

�24

La société Quantquast qui gère une plateforme de données en utilisant la Big Data et 22

le machine learning, aide les annonceurs à réaliser des campagnes marketing et des expériences utilisateurs enrichies. Pour sa propre promotion la société a décidé de mener une campagne de publicité sur Twitter associée au ciblage d’audience personnalisée afin d’attirer de nouveaux clients. La société a pour cela intégré des tags à son site afin de créer des segments permettant d’identifier les utilisateurs de Twitter. Twitter a ensuite de la même manière que la solution « look alike » identifié des audiences similaires dans sa base utilisateur. Une fois les segments identifiés, les options de targeting ont été configurés et des tweets ont été créés afin d’augmenter les téléchargements du dernier livre blanc de la société. Le taux d’interaction a été de 9,55% ce qui est très rare pour ce réseau social. Le CPA* (*"mode de facturation d’un espace publicitaire ou d’une action marketing qui consiste à facturer l’annonceur en fonction des résultats obtenus lors de la campagne") moyen a été inférieur de 50% à la moyenne. La vice présidente de Quantcast Christina Cubeta a déclaré : «  Les données des audiences personnalisées nous ont permis de toucher des utilisateurs au-delà de notre base d’utilisateurs connus et d’atteindre un taux d’interaction incroyable. La popularité de Twitter nous aide à améliorer encore davantage la performance de nos campagnes et à réduire le CPA. Twitter Ads est en tête de liste de nos partenaires les plus performants. ».

La data permet donc que ce soit sur les réseaux sociaux ou sur d’autres médias d’obtenir un ciblage plus pertinent et plus qualitatif de par des solutions optimisées et pensées pour maximiser les campagnes marketing. Les marques devraient s'y mettre rapidement pour détenir un avantage hautement concurrentiel.

b. Des contenus optimisés

L’analyse des données des utilisateurs permet aux marques de mieux cibler certes, mais également de créer des contenus créatifs et optimisés sur les réseaux sociaux.

Depuis peu de temps nous avons vu apparaitre un nouveau terme dans le monde de la donnée : le data storytelling.

Quantcast : https://www.quantcast.fr/case-study/quantcast-twitter-tailored-audiences-drives-leads-22

at-50-below-cpa/

�25

Ce terme désigne le fait d’utiliser la data pour créer des communications enrichies, impactantes et inspirantes. Le but est tout simplement de tirer le meilleur de la donnée pour créer un contenu valorisant pour une audience. Les entreprises qui savent aujourd’hui tirer parti de la donnée pour en créer un contenu sont parmi les plus innovantes de leurs domaines. Certaines sociétés ce sont d'ailleurs spécialisées dans ce data-storytelling comme par exemple ADventori qui propose de mettre à disposition des annonceurs des « data-scenarists qui feront la combinaison entre les données et les objectifs de l’annonceur, et ainsi établir la scénarisation de la campagne : à chaque nouvelle exposition, l’utilisateur verra un nouveau message. » Selon la directrice du marketing Carole Ellouk ce procédé remet «  la création au centre des problématiques d’achats média. Alors que celle-ci avait quelque peu été mise de côté face aux objectifs de volume et de prix de l’achat média. » La data retrouve donc sa place dans le processus créatif et dans l’achat média.

Avant de faire appel à une société spécialisée les marques ont besoin de déterminer les données qu'elles pourront utiliser afin d'optimiser leurs contenus. Différents types de données permettent l'élaboration de contenus créatifs : - Les données relatives à la connaissance du client. En effet il est important, voir vital, de connaitre l’expérience de l’utilisateur en question, s'il est déjà familier avec la marque, s'il a déjà une relation avec elle, si la marque lui apparait en top of mind, s'il a déjà entendu parler d'elle etc. Cette donnée est la plus utilisée lors des campagnes digitales. - Les données relatives au contexte de l’utilisateur. Il est important de savoir comment il va rentrer en contact avec elle. Car la marque ne va pas proposer le même contenu si c’est un prospect ou si c’est un nouveau client. - Les données relatives au contexte d'utilisation du produit proposé par la marque. Ces données sont également importantes à connaître et sont généralement en open data ce qui permet d’obtenir rapidement des informations. - Les données relatives à l’annonceur et à l’éditeur. Enfin la combinaison de toutes ces données pourrait permettre à toutes les marques de créer des contenus optimisés, performants et attractifs pour n’importe quel utilisateur. Malheureusement à l’heure actuelle seul Facebook ou Google sont capables d’allier toutes ces données dans un but créatif.

�26

La société Linkfluence a notamment déterminer l'importance des données relatives à la connaissance du client pour le compte de l'un de ses annonceurs. En effet la société a monitoré les conversations sur les réseaux sociaux "autour d’une crème de beauté largement distribuée en Europe, les Social Media Researchers de Linkfluence ont réalisé que l’immense majorité des consommateurs connectés et intéressés avaient une peau mate ou foncée. Problème : cette population était très peu prise en compte dans la communication de la marque. Ses visuels montraient uniquement des mannequins à la peau claire. Grâce à la social media data, des contenus spécifiques ont été créés pour aborder les problèmes d’épidermes spécifiques de ces clients et qui grâce à cette prise en compte, sont devenus des acheteurs à cause desquels ils achetaient justement ces produits." La connaissance du client a donc permis à cette société d'adapter ses communications pour être au plus proche de la cible qui utilisait et parlait le plus de son produit. Sans le social media listening les marques sont dans l'impossibilité de détecter des insights comme ceux-là.

En terme de données relatives au contexte d'utilisation, prenons le cas de la société Aldebaran , concepteur de robots humanoïdes compagnons. La société a fait appel à 23

Linkfluence (leader français du social media intelligence) pour déployer une communication horizontale* (*"Cette forme de communication a pour finalité de favoriser les échanges entre les différents acteurs de l’entreprise, dans la perspective de partager les connaissances et d’intégrer tous les salariés dans la prise de décision.") grâce à une connaissance ciblée de chaque internaute. Petit à petit les robots humanoïdes s’immiscent dans les foyers des particuliers et cela est aujourd'hui perçu de manière très enthousiaste même si les robots suscitent de nombreuses interrogations. Les réseaux sociaux représentent un outil de premier choix pour la marque afin de répondre aux questions de leur audience. Linkfluence a mis en place grâce à sa solution nommée "Radarly", une écoute du web social qui a permis d’identifier les membres clés de la communauté de la société et ainsi de mener des actions ciblées au quotidien. Cela a permis à la marque de rentrer en contact avec des utilisateurs qui ont besoin d’information, s’intéressent à la société et s’expriment sur les produits. Les contenus produits sur les réseaux sociaux par la marque sont donc intrinsèquement liés aux centres d’intérêts de chaque utilisateur.

Linkfluence "Aldebaran" / Consulté le 15/03/2016 : http://linkfluence.com/2016/01/04/aldebaran-animer-23

sa-communaute/

�27

La donnée permet donc d’analyser en profondeur les contenus, les réactions, les comportements etc. des communautés des marques et d’en faire émerger des sujets et des thèmes qui permettent d’optimiser les prises de paroles sur les réseaux sociaux. Les contenus optimisés grâce à la data ont généralement un taux d’engagement beaucoup plus élevé que les publications produites de manière créative aléatoire.

La Big Data peut donc s’avérer utile créativement et obtenir des contenus à plus fort taux d'engagement. Le constructeur automobile Mercedes-Benz avait déjà en décembre 2012 utilisé la 24

Big Data pour produire des contenus dans le cadre d'une campagne digitale sur les réseaux sociaux.

Le constructeur a créé l’opération Tweet-Fleet. Pour promouvoir la fonction park assist qui reconnaît les places de parking vides, ils ont orchestré une opération offline mais également online sur Twitter. Grâce à la data des GPS des voitures et un système Arduino* (*"C'est une plate-forme basée sur une interface entrée/sortie simple. Il était destiné à l'origine principalement mais pas exclusivement à la programmation multimédia interactive en vue de spectacle ou d'animations artistiques.") ainsi qu’un couplage en relai PHP* (*"Le PHP est un langage informatique utilisé sur l'internet. Le terme PHP est un acronyme récursif de "PHP: Hypertext Preprocessor".

Awards "Mercedes Benz Tweet Fleet" / Consulté le 17/03/2016 http://awards.jvm-neckar.de/2012/24

tweet-fleet/fwa/

�28

Ce langage est principalement utilisé pour produire un site web dynamique. Il est courant que ce langage soit associé à une base de données, tel que MySQL."), des tweets étaient automatiquement générés pour indiquer à tous les followers du compte dédié que des places de parkings étaient disponibles à proximité ou non de leur emplacement. Cette campagne a été très médiatisée et a connue un fort succès auprès des utilisateurs qui ont perçu le côté pratique et intéressant de la récupération de données à des fins servicielles.

La société de réservations d’Hôtels TripAdvisor a également surfé sur ce qu’on 25

appelle le data storytelling pour une campagne lors de la coupe du monde de 2014 au Brésil. La société a prédit pour chacun des matchs de la coupe, quelle équipe allait gagner en comparant tout simplement les hôtels où les joueurs séjournaient. Pendant les matchs des tweets créaient un lien entre la partie de football et les appréciations sur les hôtels. Grâce à un algorithme relativement simple, la société commentait donc le jeu des joueurs en fonction de la qualité de leur sommeil la nuit passée et pronostiquait grâce à cela l'équipe gagnante et l'équipe perdante. Les prévisions se sont avérées correctes dans 93% des cas et TripAdvisor a donc prouvé l’efficacité autour des discussions sur les hôtels.

Le storytelling intervient donc à l’intersection entre les médias sociaux et la Big Data. Pour créer une vraie histoire aujourd’hui sur les réseaux sociaux, il faut visualiser, écouter et savoir interpréter la donnée. Parfois le contenu peut se révéler extrêmement créatif grâce à la data comme relaté précédemment. Une section « Creative Data » a même été ajoutée aux Cannes Lions pour récompenser les marques les plus audacieuses. Les marques ont donc tout intérêt à ce familiariser avec ce nouveau moyen de création pour rendre leurs campagnes plus attractives pour leurs cibles et surtout plus performantes.

c. Une meilleure relation client à la clé

Aujourd’hui les réseaux sociaux jouent un rôle primordial lors d’un achat en ligne.

TripAdvisor : https://www.tripadvisor.fr25

�29

En effet les consommateurs sont de plus en plus sur Internet, sur le web social pour vérifier le prix ou obtenir des informations sur un produit ou un service avant de finaliser l’acte d’achat. Ce comportement a été nommé ROPO (research online pourchase offline) et "désigne donc un comportement d’achat quand on se place du coté du consommateur et la démarche d’utilisation d’Internet à des fins de création de trafic en point de vente physique pour les responsables marketing ou commerciaux." Et "78% des acheteurs déclarent que les avis des consommateurs encouragent leurs achats, en ligne notamment" . Les marques ont donc tout intérêt à examiner les 26

conversations des utilisateurs autour de leurs produits et services mais également à fournir des informations optimisées et des services performants afin d'obtenir des conversations positives et brand-centric et d'influencer les clients potentiels de manière positive à finaliser leurs achats.

Le social CRM (customer relationship management) "désigne les pratiques de gestion de la relation client sur les réseaux sociaux". L’interaction avec les consommateurs via les médias sociaux est généralement plus fructueuse et plus intime que les interactions par téléphone ou par "chat" car elle est généralement plus rapide et plus pertinente.

Selon une étude du cabinet Gartner , le marché du CRM social valait 20,4 milliards de 27

dollars en 2013 et dépassera de loin cette somme d’ici à 2018. Le social CRM représente donc un élément clé d'une stratégie marketing performante et peut être optimisé grâce à la donnée. En effet avec plus de 1,59 milliards d’utilisateurs actifs sur Facebook, 307 millions sur Twitter et 400 millions sur Instagram , le web social est une mine d’informations 28

Les Echos "Etude social CRM" / Consulté le 20/03/2016 https://www.lesechos-etudes.fr/etudes/26

communication-media/social_crm/Source Image : http://fr.slideshare.net/Kuliza_Research/social-crm-6928709

Gartner / Consulté le 20/03/2016 http://www.gartner.com/newsroom/id/266521527

TAUZIN A. "Combien d'utilisateurs de Facebook" / Consulté le 24/03/2016 http://www.alexitauzin.com/28

2013/04/combien-dutilisateurs-de-facebook.html

�30

extraordinaire pour détecter des insights clients. En effet aujourd'hui un utilisateur mécontent postera un tweet ou partagera son expérience sur le mur de la page de la marque sur Facebook plutôt que de passer des heures au téléphone avec un interlocuteur qui ne l'écoutera pas vraiment. L'utilisateur sait aujourd'hui que sa voix sur les réseaux sociaux a de l'impact et cela doit être pris en compte par les marques. La voix de ces clients doit donc être intégrée aux activités marketing des marques afin d’améliorer la relation marque / consommateur. La Big Data est devenue l’approche de prédilection dans ce domaine car c’est grâce à elle, à l’analyse de ces conversations si puissantes, que les marques parviennent à mieux répondre à la demande de leurs clients en écoutant réellement ce qu’ils ont à dire. L’enjeu est donc pour les marques de suivre les insights, les réactions et les prises de parole des utilisateurs en observant leurs conversations sur les réseaux sociaux en temps réel afin de gagner en réactivité et ainsi développer une relation de confiance et solide avec les utilisateurs.

Des marques ont donc fait appel à des sociétés tierces pour travailler sur leur relation client grâce à la Big Data.

Pour exemple Orange , l’un des principaux opérateurs de télécommunications au 29

monde, a fait appel à la société Linkfluence pour tirer parti des conversations de ses consommateurs sur le web social. Chaque produit de la marque a bénéficié d’un dispositif de monitoring propre afin d’en dégager une structuration marketing via les prises de parole des consommateurs. Les verbatims ont été captés et analysés pour en dégager des insights forts. En résultat la marque a pu ajouter ou modifier des offres produits déjà existantes ou accompagner certaines offres par des plans de communications spécifiques afin d’obtenir une meilleure compréhension de la part des utilisateurs. Les chefs de produits de la marque se servent également du dispositif au quotidien car cela leur permet de mettre à jour les FAQ lorsqu’une interrogation est décelée dans les conversations. La marque a donc réellement mis le consommateur au centre de sa stratégie afin d’obtenir un marketing opérationnel à forte valeur ajoutée.

Linfkfluence "Orange" / Consulté le 24/03/2016 http://linkfluence.com/2015/04/23/consommateur-29

connecte-linkfluence-dans-le-social-hub-dorange/

�31

L’agence The Social client a développé un dispositif de social media intelligence et, l’un de ses clients qui l’utilise pour améliorer sa relation client, est l’opérateur de télécommunications SFR . La marque tente d’améliorer la connaissance et les 30

attentes de ses clients afin d’alimenter les différentes directions du groupe et produire des campagnes et des lancements de produits réellement impactants.

SFR peut aujourd’hui, grâce au dispositif de The Social client, capter en temps réel ce que disent ses clients sur ses offres et ses services. Cela permet à la marque de récupérer des données précises et qualitatives extraites des discussions sur les réseaux sociaux pour en déduire des insights forts et utiles. Outre la surveillance et l’analyse des conversations des utilisateurs avant un lancement de produit ou une campagne de communication, le dispositif leur sert également à analyser les post-conversations. C’est à dire de capter les retours des clients sur une publicité ou le lancement d’un nouveau forfait par exemple. Les marketers ont besoin d’analyser les campagnes sur les réseaux sociaux pour en dégager la nature ROIste* ("se dit d’un canal marketing ou d’un annonceur qui privilégie un retour sur investissement des campagnes le plus direct possible") pour la marque. Et les conversations des utilisateurs est un élément important de cette analyse. Les chiffres ont beau être bons, si le consommateur ne l’entend pas de la même manière une marque a besoin de le savoir pour rebondir.

Dans le cadre de cette démarche, SFR tente également de déceler des signaux faibles de la part de ses clients afin de réagir de manière pro-active à des problèmes qui peuvent potentiellement s’amplifier. Par exemple si la marque détecte un tweet d’un de ses utilisateurs qui lui signale que le réseau ne fonctionne plus, il est fort probable que le réseau ne fonctionne plus ailleurs que chez le dit utilisateur. La marque peut donc faire des recherches auprès des équipes techniques et déceler une panne par exemple. L’analyse de ce tweet permettra donc à SFR de régler le problème avec rapidité et cela lui évitera des dizaines voire des centaines de tweets de mécontentement. La marque a mobilisé de nombreuses équipes pour ce projet et diffuse régulièrement des rapports à destination de ses équipes.

YouTube "La relation client à l'heure du digital et de la disruption | The Social Client, PMU, SFR : 30

https://www.youtube.com/watch?v=CeGJK5080YI

�32

Le top management est également impliqué dans cette démarche afin de les aider à comprendre plus amplement les bénéfices d’une telle stratégie. Un social wall* (*mur numérique permettant d’afficher en un seul et même endroit tous des posts des réseaux sociaux grâce à un hashtag ou tout simplement en rapport avec une marque) a même été installé dans les locaux de chez SFR pour suivre en temps réel toutes les conversations liées à la marque. SFR s’est donc investi totalement dans une stratégie Big Data qui in fine va lui rapporter des bénéfices tangibles et mesurables sur sa relation client.

Le social CRM lié à la data permet donc de réellement mieux identifier les attentes des différentes typologies de clients grâce à des données précises et qualifiées. Les marques ont donc toutes besoin de fusionner leur stratégie de social CRM et la Big Data pour monitorer, comprendre, suivre, capter et gérer les conversations des consommateurs. Selon le directeur associé de la société Mc Kinsey, Eric Hazan «  les entreprises qui ont une bonne connaissance du client ont une croissance supérieure à la moyenne.  » Cela s’avère donc être un enjeu stratégique déterminant pour les marques souhaitant se différencier de la concurrence, tisser des liens solides avec ses clients et connaître une croissance importante.

"Le rêve des marketeurs d’optimiser leur valeur client ne pourra se réaliser via les réseaux que par le passage du seul mode transactionnel au mode conversationnel avec le client. E-commerce, M-commerce, F-commerce constituent désormais une opportunité inévitable pour une meilleure optimisation de la relation client." Et le 31

community manager va jouer un rôle essentiel dans cette transition pour passer aux nouveaux "4P : Permission, Proximité, Perception, Participation".

d. Une détection des signaux forts et faibles

Est désigné comme un signal faible selon l’économiste russo-américain Igor Ansoff «  une information d’alerte précoce, de faible intensité, pouvant être annonciatrice

Les Echos "Etude social CRM" / Consulté le 20/03/2016 https://www.lesechos-etudes.fr/etudes/31

communication-media/social_crm/

�33

d’une tendance ou d’un événement important. » . En somme ce sont les éléments de 32

perception d’un environnement, ces opportunités et ces menaces. Les signaux faibles font partis de la small data qui selon Rufus Pollock 33

désigne une « quantité de données que vous pouvez aisément stocker et utiliser sur une seule machine et plus précisément sur un seul ordinateur portable ou serveur de haute qualité». Les signaux faibles détectés grâce à la small data permettent donc de répondre à un problème ou à une q u e s t i o n d e m a n i è r e m o i n s contraignante qu'avec une solution Big Data, plus lourde et plus complexe. Elle marque le début d’un processus de décision qui va permettre de réfléchir à ce signal faible pour en dégager des actions.

Les signaux faibles extraits permettent d’identifier de nouveaux comportements, de nouveaux consommateurs, de nouveaux critères de segmentation etc. Sur les réseaux sociaux les contenus sont abondants et il n’est pas rare de voir émerger des signaux faibles intéressants. Mais les marques ont pour obligation d’être prudentes avec cette masse d’informations car elles ne se révèlent pas toujours pertinentes. Les signaux faibles doivent être croisés à d’autres données de sources différentes pour révéler leur valeur. Un signal faible doit donc être travaillé, il ne peut pas être utilisé tel quel lorsqu’il est détecté parmi tous les flux de données statiques. Un signal faible peut être "qualitatif, ambigu, sans pertinence intrasèque, fragmentaire et de formes et de sources diverses". Un professionnel peut s’en servir pour produire une analyse prédictive intéressante pour son client mais seulement s’il le met en contexte.

M2IE "Signaux faibles et angles morts, élargir sa vision périphérique" / Consulté le 27/03/2016 http://32

www.m2ie.fr/signaux-faibles-et-angles-morts-elargir-sa-vision-peripherique/

POLLOCK R "Forget Big Data, small data is the real revolution" / Consulté le 27/03/2016 http://33

blog.okfn.org/2013/04/22/forget-big-data-small-data-is-the-real-revolution/

�34

Il est primordial que les marques définissent leurs objectifs afin de sélectionner ces données que représentent des signaux faibles, les traiter et les interpréter afin d’en faire ressortir des actions précises. Elles ont besoin de déterminer qu'est ce qu'une information critique pour elle, si toutes les informations fragmentaires doivent être traitées ou si il y a une délimitation des données à effectuer afin d'être en alerte et porter son attention sur un élément en particulier. Par exemple pour les sociétés de téléphonie comme SFR, Orange ou encore Bouygues Telecom une panne peut être détectée en tant que signal faible grâce à un hashtag sur Twitter ou un commentaire sur Facebook et peut donc être traitée de manière proactive.

Les marques sont aujourd'hui pour la plupart très à l'écoute de ces signaux faibles mais certaines n'ont pas su y prêter attention et ce sont retrouvées sur le banc de touche. Comme exemple, nous pouvons citer l'entreprise Kodak qui n'a pas su détecter les signaux faibles annonçant le tournant du numérique. Elle n'a pas, à contrario de ses concurrents, adapté ses offres et services avec l'évolution des usages de ses clients. En 1988 elle comptait plus de 180 000 salariés aujourd'hui elle n'en compte plus que 17 000 et "se bat pour survivre" dans cet univers très largement concurrentiel. Les sociétés comme Instagram ou Snapchat ont su s'adapter à la génération connectée en écoutant les signaux faibles. Les chiffres sont évocateurs, en effet en 2012 Instagram valait 1 milliard de dollars pour 14 salariés et Snapchat valait en 2015, 20 milliards de dollars pour 60 salariés. Les signaux faibles détectés peuvent se 34

transformer en signaux forts. Un signal fort est une "information qui confirme une tendance actuelle et qui permet de bâtir une stratégie de réponse adéquate" . 35

Ces signaux détectés, ils représentent une opportunité de créer des produits et des services adaptés et optimisés en se calquant sur les besoins et usages des consommateurs.

Inouixcurius "La force des Signaux faibles" / Consulté le 01/04/2016 http://www.inouixcurius.com/la-34

force-des-signaux-faibles/

MAUGER C. "Le glossaire de la veille" / Consulté le 01/04/2016 http://www.christianamauger.com/35

glossaire-de-la-veille

�35

a. Traiter le volume en déterminant des KPI’s exploitables

Le volume de données est actuellement pharaonique. Pour que ce gigantesque flux complexe, qui ne cesse d’évoluer, fasse sens et devienne un vecteur utile et profitable à l'entreprise avec un retour sur investissement, il est nécessaire de déterminer des KPI's exploitables et sensés.

Les KPI's « Indicateurs clés de performance (Key Performance Indicator) permettent le pilotage et le suivi de l’efficacité des éléments auxquels ils sont rattachés. Leurs principes résident essentiellement dans leur capacité à s’affranchir de la stérilité d’une donnée brute. Ils sont très utiles lors de l'analyse des stratégies Big Data et informatiques.

Il est donc vital pour l'entreprise de déterminer des KPI's en adéquation avec son modèle économique, son ambition et les données dont elle dispose, pour tendre à la réussite d'une stratégie Big Data.

Un KPI se détermine de plusieurs manières. Il doit être : - En cohérence avec la stratégie business de l’entreprise - Mesuré - Actionnable - Simple - Unique - Déterminé par une équipe mélangeant toutes les strates de l’entreprise - Sans limite apparente - Intégré (à l’entreprise)

L'entreprise doit, avant de déterminer des KPI's sur des actions externes, déterminer des KPI's internes à l'entreprise. Ces trois KPI's sont : la synthèse, la vitesse et la signifiance.

III. Mais les marques devraient adopter une stratégie social media intelligence en exploitant les 3 V de la donnée : volume, vitesse et variété..

�36

Le KPI de la synthèse se définit tout simplement par une collaboration de toutes les strates de l’entreprise. La Big Data ne fonctionne pas en silos, elle ne peut être efficace si le top management n’engage pas la discussion avec le service informatique et le marketing. Les employés de chaque service doivent communiquer entre eux et déterminer ensemble l’utilité ou non d’une stratégie Big Data au sein de leur entreprise. Il est également indispensable d’obtenir l’engagement d’un expert en Big Data qui saura rassembler les employés autour des réelles opportunités et menaces de la Big Data.

Le KPI de la vitesse se détermine lui par un bouleversement des méthodes de management des équipes directrices. Les méthodes traditionnelles et dépassées, où un processus durait des semaines voir des mois, ne fonctionnent plus dans un monde ou tout va toujours plus vite. La Big Data a besoin de méthodes agiles et rapides qui cassent les silos et permettent des processus courts et performants. La vitesse implique également une provision constante en terme de données, ce qui va permettre à l’entreprise de visualiser des insights sur le long terme. Un stratégie Big Data qui n’est pas alimentée par des données en flux continu n’a aucune raison d’exister. Les temps de réponse entre les différents acteurs de la stratégie doivent également être courts pour permettre des prises de décisions rapides.

Le dernier KPI à prendre en compte est la signifiance. En effet l'entreprise doit déterminer si une stratégie Big Data fait sens ou non, si l'analyse des données dont elle dispose peut lui apporter de la valeur, qu'elle soit financière ou sociale. Tout le processus doit être clair et signifiant pour toutes les strates de l'entreprise afin d'être efficace.

Une fois les KPI's internes détectés et formulés l'entreprise doit déterminer ses objectifs externes pour être plus performante sur les réseaux sociaux, que ce soit à travers une campagne de communication, ou une gestion de la relation client.

Sur les réseaux sociaux différents indicateurs de performance peuvent être déterminés comme : l'augmentation des conversions, l'augmentation des interactions avec la communauté, l'augmentation de l'engagement de la communauté.

�37

Ainsi que l'élargissement de la communauté, l'augmentation du trafic généré sur le site internet ou encore l'augmentation du nombre d'achats réalisés grâce au plan média mis en place. Mais ce qui permet de savoir si la marque a atteint ses objectifs est réellement : l'intention d'achat déclarée sur les réseaux sociaux, le nombre de nouveaux leads, le taux de transformation de la campagne ainsi que le sentiment de la campagne (% positif, neutre ou négatif).

Pour une campagne de communication que ce soit sur les réseaux sociaux ou ailleurs, il est essentiel de définir des objectifs de performance pour chaque cible. En effet une donnée n’a de sens que si elle révèle un insight qui permettra d’améliorer ou de créer une expérience utilisateur nouvelle pour un segment précis par exemple. Elle doit être attribuée à un but déterminé afin qu’il en résulte une satisfaction de la cible et une relation client forte et profitable pour l'entreprise.

La donnée qui servira à déterminer ces KPI’s doit donc avoir un objectif clair pour servir l’entreprise et être utile. Elle doit être pensée comme un projet déterminant de la performance. Le flux de données sur les réseaux sociaux peut faire peur, le traitement peut être complexe mais la détermination d’objectifs clairs peut simplifier et clarifier une stratégie. Afin d'être appliqués efficacement ces KPI’s doivent être déterminés en real-time, selon l’environnement et la société actuelle et plus sur des objectifs passés pour être performants et apporter de la valeur à l’entreprise.

b. Créer des stratégies real-time data pour faire face à la vitesse

Afin de créer des stratégies Big Data rapides et performantes les entreprises peuvent s’appuyer sur ce qu’on appelle la real-time data (RTD). Cette data permet d’obtenir directement une donnée après sa collection. Il n’y a pas de délai entre le temps ou l’information est collectée et celui ou elle est traitée. Ce type de donnée est utilisée pour le tracking ou bien pour la navigation mais peut être utilisée dans d’autres situations.

�38

Comme vous pouvez le voir sur le schéma ci-contre, la real time data est un mélange entre plusieurs stratégies : télémesure (« Technique permettant d'obtenir à distance les valeurs de mesures effectuées dans des installations techniques. Par extension, une télémesure désigne l'une de ces mesures à distance. ») + Big Data + smart data (« Le smart data, que l'on pourrait traduire par données intelligentes, est une nouvelle approche du traitement des données. Elle consiste à extraire de l'immense masse de données procurées par la Big Data, les informations les plus pertinentes pour mener des campagnes marketing. ») + l’internet des objets et enfin une stratégie digitale.

Une stratégie en real time permet donc d’agir directement dans le présent. Elle permet de prendre des décisions rapides, de détecter des opportunités pour l’entreprise à l’instant et de trouver rapidement des solutions à des problèmes. En somme la real time data permet d’augmenter la performance opérationnelle immédiate de toutes les équipes de l’entreprise.

Par exemple une entreprise qui souhaite diffuser une offre promotionnelle auprès de prospects via leur géolocalisation dès qu'ils se trouvent près d'une enseigne, va privilégier une stratégie real time. En effet de cette manière et grâce à la rapidité d'acquisition des données, l'entreprise va pouvoir être pro-active et toucher sa cible avant même qu'elle n'ait eu l'intention d'entrer dans l'enseigne.

L’avantage d’utiliser cette stratégie est de s’affranchir de toutes les complexités que peut entrainer la donnée comme : l’installation de capteurs, l’opération, la maintenance, les erreurs, le retravail des données, la logistique, la gestion des services etc. L’architecture de cette donnée tend à être la plus simple possible pour permettre une utilisation instantanée et une résolution des problèmes quasi immédiate.

Cependant la real time data représente un flux de données immense, elle est très changeante, il y a de fortes variations, elle est hétérogène et surtout elle est non standardisée. Elle nécessite un traitement spécial pour que l’architecture soit efficace. Il faut donc que l'entreprise se pose les bonnes questions avant de se lancer dans une stratégie real time. Par exemple : quels bénéfices peuvent être réalisés ? quel est l’investissement à fournir dans une stratégie real time ? quels sont les outils pour mener une telle stratégie ? etc. et cela est tout à fait compréhensible mais elles doivent réfléchir étapes par étapes.

�39

Tout d’abord en intégrant l’idée de cette stratégie au quotidien dans l’entreprise. La real time data est traitée en ad hoc, elle est centrée sur un segment ou sur un problème individuel et les revenus de cette stratégie peuvent variés largement en fonction des objectifs. Chaque strate doit intégrer ces différents faits avant d’allouer un budget à une telle stratégie. Enfin après une évaluation des risques et un état des lieux des technologies à mettre en place, la stratégie pourra être créé et déployée.

Même complexe, cette donnée est une incroyable opportunité de monétisation pour les marques capables de la capter. En effet dans notre société actuelle tout va très vite, l’information apparaît et disparaît si rapidement que des analyses traditionnelles sont rarement capables de capter ces flux et ainsi d’identifier les possibilités qu'offre la real time data aux marques pour agir. Par exemple une marque qui parviendra à communiquer et à envoyer directement des informations à son client pendant qu'il déambulera dans les allées de son magasin grâce à ses données détiendra un avantage non négligeable par rapport à ses concurrents et pourra ainsi, possiblement influer sur sa décision et l’amener à finaliser son achat. Les real time datas peuvent donc sensiblement réduire le temps entre la pensée et l’acte d’achat et ainsi permettre aux marques d'être plus à l’écoute, plus réactives mais également plus opérationnelles. Les modèles traditionnels en sont donc bouleversés mais cela est intrinsèquement relié au bien-être financier des marques.

Ces données en temps réel ont également un aspect hautement positif au niveau de la création de contenus. En effet une marque peut tout à fait s’en servir pour alimenter ses posts sur les réseaux sociaux en étant la première à rebondir sur un insight fort dégagé grâce aux données collectées. La marque peut par exemple se servir des opinions positives ou négatives diffusées sur les médias sociaux par ses clients et répercuter immédiatement ce qu’elle aura appris pour améliorer son modèle, ses produits, son expérience client etc.

En somme la real time data possède de nombreux avantages comme le fait de pouvoir utiliser des informations immédiatement pour manager des équipes, donner des informations aux clients, rendre des processus plus performants et prendre des décisions qui rapporteront de la valeur à l’entreprise.

�40

c. Prendre en considération la variété des données pour créer une stratégie pertinente

La Big Data représente un ensemble. Comme nous avons pu le voir précédemment, une donnée seule n’a aucune valeur car elle ne traduit rien, elle ne fait ressortir aucun insight et ne peut être utile à l’entreprise en l'état. La Big Data doit être considérée comme un ensemble. Comme un ensemble de données très variées (données structurées et non structurées). Les marques doivent comprendre que la donnée peut venir de n’importe où, que ce soit des médias, des réseaux sociaux, des smartphones, des sites web, de la télévision.. La donnée vient de partout et c'est cette diversité qui fait d’elle un élément à forte valeur ajoutée pour les entreprises. Certes ce nouveau flux est difficile à capter lorsqu’on sait qu’il vient des données de : géolocalisation, mobile, cartes de fidélités, recherches, connexions.. mais c'est la diversité et la richesse des différentes sources qui dans leur ensemble, le rende pertinent.

Pour mener à bien une stratégie Big Data les marques doivent comprendre que c’est cette variété qui représente une opportunité. C’est grâce à l’analyse de textes, d’images, de vidéos et de photos, tout cela en combiné que les marques pourront capter des insights forts. Dans ce mémoire les réseaux sociaux ont été privilégiés mais les marques, si elles souhaitent réussir à utiliser efficacement les données qu'elles pourront détecter sur Facebook ou sur Twitter par exemple, devront apprendre à fusionner et croiser ces datas avec d'autres datas qui proviendront des GPS ou alors des médias traditionnels par exemple.

Bien entendu cette variété nécessite de mettre en place des solutions non plus traditionnelles mais sophistiquées car 90% des données sont non structurées (les données provenant des réseaux sociaux ne le sont pas, les images, les vidéos, et l’audio, ne le sont pas non plus). Des solutions innovantes doivent donc être mises en place par les marques pour explorer ce champ des possibles afin de visualiser et modéliser ces données complexes.

Les marques disposent aujourd’hui de nombreuses données non structurées comme des photos, des mails, des données provenant des GPS etc. mais également de données structurées. Malheureusement elles ne savent pas encore comment s’en servir et comment les fusionner pour mettre en place une stratégie efficace.

�41

Les équipes en alliant et en rassemblant ces deux types de données peuvent s’en servir pour découvrir et explorer des nouvelles métriques, des perspectives sur les clients, les produits ou même les opérations en cours dans l’entreprise. L’alliance des données peut donc amener les employés à prendre des décisions plus justes et les plus précises in fine.

Il faut toutefois mettre en relief cette variété. Sur les réseaux sociaux par exemple, la variété des données est immense entre la langue, la nature du post, la date etc. et il serait tentant de tout analyser et de tout considérer comme important or tous les tweets ne sont pas aussi importants les uns que les autres. Par exemple le tweet d’une personne influente n’aura pas le même poids qu’un tweet d’une personne moins influente. La variété de la donnée est donc très utile pour une stratégie complète et performante mais elle peut également être un défi.

Les marques et les équipes marketing ont donc tout intérêt à se poser la question de la fusion de toutes leurs données afin de s'appuyer sur cette mine d'information pour mieux cibler et mieux comprendre les consommateurs mais également mieux mesurer les performances des campagnes.

�42

Il est évident que de nombreuses marques sont encore frileuses face à l'avancée époustouflante que représente la Big Data et préfèrent rester figées dans leurs méthodes d'analyse de données traditionnelles qui ne fonctionnent malheureusement pas sur les réseaux sociaux. Aujourd'hui une marque qui souhaite donc s'implanter sur Facebook ou Twitter de manière efficace et pertinente, sans la Big Data, n'y obtiendra aucun résultat.

Comme nous avons pu le voir et malgré les réticences des marques, les différentes complexités qu'entraîne la data que ce soit au niveau légal, financier ou encore technique, ne doivent pas représenter un frein face aux bénéfices engendrés par leurs choix stratégique. La Big Data permet de capter des opportunités, d'être pro-actif, d'être cohérent. Elle permet aux marques de mieux cibler et de mieux s'adresser à leurs publics sur les réseaux sociaux en créant des contenus adaptés et pertinents en fonction d'insights forts. Si les marques veulent devenir audacieuses, innovantes et se démarquer de la concurrence elles ont pour mission de s'intéresser au monde de la Big Data.

Elles ont besoin de trouver la stratégie qui leur convient en fonction de leurs objectifs, de leurs moyens mais également de leurs employés. Créer des méthodes agiles et surtout de casser les silos afin de rassembler toutes les composantes de l'entreprise autour d'un projet n'est pas chose facile, mais c'est une étape inévitable dans un tel projet. Créer une stratégie en real time data grâce à des KPI's définis et pertinents, en fonction des différentes variables de l'entreprise et en tenant compte de la variété de toutes les données dont elle dispose, développera forcément une stratégie bénéfique que ce soit au niveau financier ou au niveau social.

Aujourd'hui peu de marques ont vu leurs stratégies Big Data échouées, parce qu'elles ont su prendre la mesure et la pertinence des retombées avant de se lancer dans cette aventure.

IV. Conclusion

�43

Toutes ces analyses sont le fruit de nombreuses recherches et réflexions et m'amènent à penser que la Big Data deviendra très vite (si ce n'est pas déjà le cas) un département privilégié dans chaque grande entreprise et un élément dopant et utile à toutes les startups.

Ce mémoire m'a permis de remettre en question mes acquis sur les réseaux sociaux d'avoir un regard neuf et une approche différente et encore plus pertinente pour exploiter le maximum de la data à ma disposition au quotidien dans mes recommandations pour des clients.

La Big Data analyse le présent et prédit le futur, j'en vient donc à me demander quel sera le futur des marques mais également des utilisateurs sur les réseaux sociaux grâce à elle.

�44

Hadoop : « Un cluster Hadoop est un type particulier de traitement informatique en grappe, conçu spécialement pour stocker et analyser de grandes quantités de données non structurées dans un environnement distribué. » « En 2013, Facebook a été identifié comme ayant le plus important cluster Hadoop dans le monde. Parmi les autres utilisateurs clés de cette technologie, on retrouve Google, Yahoo et IBM. » 36

Mapreduce : « C’est un modèle de programmation massivement parallèle adapté au traitement de très grandes quantités de données. MapReduce est un produit Google Corp. Les programmes adoptant ce modèle sont automatiquement parallélisés et exécutés sur des clusters (grappes) d’ordinateurs. » 37

NoSQL : «  Le NoSQL (Not only SQL) désigne une catégorie de base de données apparue en 2009 qui se différencie du modèle relationnel que l'on trouve dans des bases de données connues comme MySQL ou PostgreSQL. Ceci permet d'offrir une alternative au langage SQL. » 38

In Memory : « Une base de données dite « en mémoire » (in-memory), ou IMDB (In Memory DataBase), ou encore MMDB (Main Memory DB), désigne une base de données dont les informations sont stockées en mémoire centrale afin d'accélérer les temps de réponse. » 39

OLTP (online transaction processing) : « L’OLTP est un traitement transactionnel en ligne qui sert à effectuer des modifications d'informations en temps réel. On le retrouve essentiellement dans des opérations commerciales comme les opérations bancaires, ou l’achat de bien divers. L’objectif de l’utilisation d’un tel système est de pouvoir

Le MagIt : http://www.lemagit.fr/definition/Hadoop-Cluster 36

Piloter : http://www.piloter.org/business-intelligence/map-reduce.htm 37

Igm Univ : http://www-igm.univ-mlv.fr/~dr/XPOSE2010/Cassandra/nosql.html 38

Le MagIt : http://www.lemagit.fr/definition/In-Memory-Base-de-donnees-en-memoire 39

V. Glossaire

�45

insérer, et interpréter pour des besoins divers, les données de la base de données, en toute sécurité. » 40

Mode Batch : « En informatique, un traitement par lots (batch processing en anglais) est un enchaînement automatique d'une suite de commandes (processus) sur un ordinateur sans intervention d'un opérateur1. Une fois que ce processus est terminé (quel que soit le résultat), l'ordinateur traite le lot suivant. Le traitement des lots se termine une fois que tous les lots de la pile ont été exécutés. » 41

Architecture scale-out : « L'architecture scale-out s'applique aussi à l'informatique en cluster ou distribuée, dans laquelle plusieurs petits serveurs se partagent la charge de traitement d'une seule application. Par exemple, une charge de travail critique peut être exécutée sur deux serveurs ou plus, le traitement étant partagé entre ces serveurs selon une configuration actif-actif. Si un serveur tombe en panne, un autre peut prendre le relais afin d'assurer la disponibilité de l'application. S'il faut plus de redondance, il est possible d'étendre encore le cluster en y ajoutant d'autres noeuds de serveur. » 42

Petite Entreprise : http://www.petite-entreprise.net/P-3081-136-G1-definition-oltp-vs-olap.html 40

Wikipedia : https://fr.wikipedia.org/wiki/Traitement_par_lots 41

Le MagIt : http://www.lemagit.fr/conseil/Scale-up-ou-scale-out-le-meilleur-choix-pour-votre-datacenter 42

�46

Ouvrages / Livres Blancs- KHAN G.F., "Seven Layers of social media analytics" 2015 - SCHMARZO B., "Big Data, Tirer parti des données massives pour développer l'entreprise" 2013 - ORACLE, "La valeurs des données sociales" 2013 - JAMESPOT, "Big Data et réseaux sociaux : Mythes et Réalités" 2013 - Corps, "Guide du Big Data, l'annuaire de référence à destination des utilisateurs" 2015 - Synthesio, "Utiliser les médias sociaux pour créer de la valeur. Le social intelligence au service de l'entreprise"

Article de Presse- JAIME N. - CB News et JDN - 2015 "Comment dominer la data"

Sites Internet- DENIAUD C. - http://www.mediassociaux.fr/2013/01/25/les-enjeux-de-la-big-data-a-lheure-des-medias-sociaux/ - "Les enjeux de la Big Data à l'heure des médias sociaux" - 2013 - LOULIDI N. - https://blogs.oracle.com/marketingcloud/fr/la-data-au-service-de-sa-prsence-sur-les-rseaux-sociaux - "La data au service de sa présence sur les réseaux sociaux" - 2015 - CLEMENT T. - http://www.madalana.fr/social-media-intelligence/ - "Social media intelligence : une arme stratégique pour votre marque" - THE SOCIAL CLIENT - http://www.actimag-relation-client.com/fr/article/social-media-intelligence-service-toute-entreprise - "LE SOCIAL MEDIA INTELLIGENCE AU SERVICE DE TOUTE L’ENTREPRISE " - MICHIELS M. - http://culture-rp.com/2016/01/18/le-big-data-au-service-dun-modele-customer-centric/ - "La Big Data au service d'un modèle customer centric" 2016 - MOISAN B. - https://siecledigital.fr/2015/11/25/data-marketing-efficace-inquietant/ - "Le data marketing : efficace mais inquiétant"

VI. Bibliographie - Webographie

�47

- BALAGUE C. - http://www.soft-concept.com/surveymagazine/opportunites-big-data-et-donnees-reseaux-sociaux/ - "Opportunités du Big Data et des données issues des réseaux sociaux" - TERADATA - http://www.forbes.com/sites/teradata/2015/05/27/capitalize-on-social-media-with-big-data-analytics/#53e9740cca3e - "Capitalize on social media with big data analytics" 2015 - BOWDEN J. - http://www.socialmediatoday.com/content/reasons-explore-big-data-social-media-analytics-videos - "Reasons to Explore Big Data with social media analytics" 2014 - HUNG D. - http://tech.co/impact-big-data-social-media-marketing-strategies-2016-01 - "The impact of Big Data on social media marketing strategies" 2016 - INCITE GROUP - http://www.incite-group.com/data-and-insights/big-data-social-media-social-mining-part-2-finding-insight - "Big Data in Social Media : Social mining part 2 : finding insight"

�48

Annexe 1 - Fiches de lecture Page 49

Annexe 2 - Synthèse des focus groups Page 55

Annexe 3 - Interviews Page 61

Annexe 4 - Etudes quantitatives Page 78

Annexe 5 - Corpus d’articles Page 80

VII. Annexes

�49

Annexe 1 - FICHES DE LECTURE

1/ Big Data - Tirer parti des données massives pour développer l’entreprise

Auteur : Bill Schmarzo Date de parution : 2013

«Le big data exploite des perspectives uniques et concrètes recueillies sur vos clients, vos produits et vos opérations pour réorganiser vos processus de création de valeur, optimiser vos initiatives métier clés et découvrir de nouvelles opportunités de monétisation.»

«De nouvelles sources de données provenant des médias sociaux et des mobiles, générées par des capteurs ou des machines, ont le potentiel de renouveler les processus de création de valeur d’une organisation. Avec les indications qu’elles nous fournissent sur les intérêts, les passions, les affiliations et les associations des consommateurs, les données issues des médias sociaux peuvent servir à optimiser l’engagement client (de l’acquisition des clients de la brand-advocacy, en passant par l’activation, la maturation, la vente croisée (cross-selling), la vente initiative (up selling) et la rétention).»

«Les volumes massifs de données (se chiffrant en téraoctet, voire en pétaoctets), leur diversité et leur complexité mettent à rude épreuve les capacités des piles technologiques existantes.»

«En conséquence, les organisations informatiques ou non, sont confrontées aux difficultés suivantes : les indications fournies par les médias sociaux, les mobiles ou les machines ne sont pas disponibles en temps voulu, dans un monde où l’expérience client en temps réel est en train de devenir la norme.»

«Le mouvement du Big Data est en train d’engendrer une transformation des organisations. Celles qui l’adoptent comme un facteur transformationnel passent d’une vision rétrospective tournée vers le passé, qui utilise des tranches partielles de données échantillonnées ou agrégées par lots pour surveiller l’activité à une vision des opérations prédictive, tournée vers l’avenir qui exploité en temps réel toutes les données disponibles.»

�50

«Exploiter les perspectives exploitables et les recommandations personnalisées basées sur les comportements et les tendances des consommateurs pour améliorer leurs relations et repenser leur expérience client.»

«Identifier vos clients cibles et les solutions qu’ils souhaitent. Concentrez-vous sur la recherche de solutions qui améliorent leur performance et les aident à gagner de l’argent. Ce faisant, vous devez détailler les profils types (personas) des décideurs économiques. Investissez du temps pour suivre ces derniers et comprendre quelles décisions ils essaient de prendre, à quelle fréquence et dans quelles situations. Passez ce temps à recueillir des informations sur ce qu’ils essaient d’accomplir, au lieu d’essayer de comprendre ce qu’ils font.»

«Des sociétés comme Facebook ont réalisé des expérimentations «live» pour réaliser des itérations rapides dans l’amélioration de leur expérience utilisateur. Instrumentez chaque point d’engagement de l’expérience utilisateur pour pouvoir détecter les habitudes d’utilisation ainsi que les goulets d’étranglement potentiels et les éléments de frustration que les utilisateurs pourraient avoir dans leur interaction avec l’interface.»

«Les données deviennent pour l’entreprise un actif à exploiter (...) plus on en possède, plus elles sont détaillées, et plus vous serez susceptible d’en tirer des perspectives.»

«Les modèles qui vous permettent d’acquérir, de profiler et de segmenter vos clients, qui vous servent à mesurer l’efficacité d’une campagne ou que vous utilisez pour la maintenance prédictive sont tous des facteurs susceptibles de vous différencier sur le marché, qui peuvent être exploités pour augmenter votre valeur globale et qui peuvent nécessiter une protection juridique.»

«Le Big Data offre quatre possibilités (...) : fouiller dans le moindre détail toutes les données transactionnelles dont la plus grande partie n’est pas analysée aujourd’hui en raison des coûts d’entreposage des données. C’est ce qu’on appelle les dark data. Intégrer des données non structurées avec des données structurées. Exploiter en temps réel et intégrer l’analytique prédictive.»

«Les données non structurées (...) (par exemple des documents texte, des publications sur les réseaux sociaux, des commentaires de médecins, des fichiers logs, des commentaires de clients.»

�51

«Google a conquis le monde de la publicité sans rien d’autre que les mathématiques appliquées. Il n’a pas fait semblant de connaître quoi que ce soit de la culture et des conventions de la publicité : il a juste fait l’hypothèse que de meilleures données, couplées à de meilleurs outils d’analyse, permettraient de remporter la partie. Et Google a eu raison.»

«En outre, l’analytique peut être personnalisée et rendue autoapprenante, de sorte qu’elle optimise constamment les modèles en fonction du feedback des utilisateurs sur ce qu’ils aiment, n’aiment pas et pourquoi.»

«Fouiller les données des médias sociaux pour créer des modèles de microsegmentation plus riches basés sur les perspectives psychologiques des clients, notamment leurs intérêts, leurs passions, leurs associations et leurs affiliations.»

«Le processus de visualisation du Big Data : Recherche (identifier les principaux objectifs et la durée de l’initiative), Analyse (préparer les échantillons de données, cerner les perspectives), Brainstorm (envisager le potentiel du Big Data par rapport à l’initiative), Priorisation (prioriser les opportunités et identifier les obstacles), Documentation (capturer les opportunités d’analyse, recommander l’étape suivante).»

«Utiliser les données des sites tels que Facebook, Pinterest, Yelp et Twitter pour identifier les tendances de certains produits financiers à devenir des candidats pour des promotions multiproduits (...). Comparez ces tendances à vos modèles de ventes croisées par ménages/ produits pour identifier des cibles de marketing direct.»

«Utiliser le programme pour segmenter les clients clés. Exploiter les données de Twitter et Facebook pour surveiller les tendances du sentiment dans les segments de clients les plus précieux afin d’identifier plus rapidement et de quantifier (noter) les défections et les leviers de performance correspondants.»

«Dans le monde du marketing numérique, les organisations emploient le processus ELT pour créer de nouvelles métriques composites qui aident à quantifier l’attribution des conversions entre différents traitements (impressions, clics, recherches par mots-clés, messages sur les réseaux sociaux.»

«L’analyse dans la base de données inverse le processus en transférant les algorithmes d’analyse vers les données, accélérant ainsi le développement, l’optimisation et le déploiement des modèles analytiques.»

�52

2/ Seven layers of Social media analytics

Auteur : Gohar F Khan Parution : 2015

« L’analyse de texte est principalement utilisée pour comprendre les sentiments des utilisateurs des médias sociaux ou pour identifier les nouveaux thèmes et sujets émergents. »

« L’analyse des réseaux cherche à identifier les noeuds influents (ex : personnes et organisations) et ainsi déterminer leur place dans le réseau. »

« L’analyse des actions est principalement utilisée pour mesurer la popularité et l’influence, mais également pour prédire certains sujets par exemple. »

« Comme chaque entreprise, l’analyse des médias sociaux peut prendre trois formes : 1) l’analyse descriptive, 2) l’analyse prédictive et 3) l’analyse prescriptive. »

« L’analyse descriptive est principalement focalisée sur la récolte et la description des données des médias sociaux sous forme de rapports, de graphiques et de regroupements a n de comprendre un problème. »

« Un groupe d’avocats privés a depuis longtemps suscité de sérieuses préoccupations concernant l’exploitation des données des médias sociaux et mis en garde contre la transformation des espaces sociaux dans des laboratoires de comportements. Les médias sociaux sont venus sous le feu des projecteurs en raison notamment de l’expérience à grande échelle « Facebook Experience » réalisée en 2012 dans laquelle Facebook a manipulé le l d’actualité de milliers de personnes pour voir si la contagion d’émotion peut se produire sans interaction en face à face (avec l’absence d’indices non verbaux) entre les personnes sur les réseaux sociaux. (Kramer, Guillory et al. 2014) »

« Par exemple sur Twitter, trois cent quarante-deux mille tweets apparaissent chaque minute, et sur Facebook, un million de likes sont partagés toutes les vingt minutes. Capturer toute cette information peut ne pas être réalisable. Savoir sur quoi il faut se focaliser est crucial pour réduire la portée et la taille des données. »

�53

« Les entreprises peuvent utiliser l’ « intent mining » pour trouver de nouveaux clients potentiels qui ont l’intention d’acheter un produit ou un service ou pour trouver des clients existants qui ont par exemple des difficultés avec un produit. »

« Le genre de la source du texte déterminera le type d’outil utilisé pour extraire et analyser ces données. Par exemple l’extraction de tweets nécessite différents outils et approches que l’analyse d’un document type texte. »

« Pour les algorithmes d’analyse à appliquer à un texte, ils doivent être transformés en un format lisible par un ordinateur (par exemple 0 et 1) pour être analysés. Le texte ainsi nettoyé et transformé en représentations utilise des techniques linéaires d’algèbre, comme l’analyse sémantique latente et les modèles d’espace vectoriel. »

« Cela soulève la question de savoir comment les différences dans les normes culturelles influencent les modèles et les stratégies des médias sociaux dans le secteur public. L’hypothèse était que la différence culturelle peut être rejetée dans les structures des réseaux des médias sociaux formés entre les personnes de différentes sociétés. »

« Les actions sont une manière d’exprimer les réactions symboliques envers des contenus des médias sociaux. Des actions symboliques sont un moyen facile et rapide d’exprimer des sentiments, contrairement aux réactions écrites sous forme de commentaires textuels. »

« L’analyse des actions sur les médias sociaux se sert de l’extraction, de l’analyse, et de l’interprétation des idées contenues dans les actions effectuées par les utilisateurs des médias sociaux. Les organisations peuvent employer des actions d’analyse pour mesurer la popularité et l’influence d’un produit, d’un service ou d’une idée sur les médias sociaux. »

« Grâce aux clics, les utilisateurs naviguent sur le web. Les données des clics peuvent être récoltées à des fins de business intelligence, pour réduire les taux de rebond et améliorer le trafic du site. »

« Capturer les données de déplacement du curseur de l’utilisateur peut aider à comprendre le comportement des utilisateurs sur les médias sociaux. Des études ont même suggéré une forte corrélation entre le temps de déplacement et les achats. »

�54

« Les liens internes sont d’un grand intérêt pour les marqueurs des médias sociaux parce qu’ils apportent du trafic vers un site web particulier. Ainsi, leur récolte peut aider à comprendre d’où vient le trafic vers un site web corporate. Les liens internes peuvent aussi influer sur la popularité des contenus sur les médias sociaux. »

« L’analyse des liens hypertextes sur les médias sociaux porte sur l’extraction et l’analyse des hyperliens intégrés dans les textes des médias sociaux (ex : tweets et commentaires). Ces liens peuvent être extraits et étudiés pour identifier les sources et les destinations du trafic des médias sociaux. »

« Les liens externes sur les médias sociaux peuvent mener à des informations précieuses et peuvent aider à expliquer les phénomènes du monde réel. Cela permet également de faire la lumière sur les disparités dans l’utilisation des médias sociaux entre les différentes cultures. (Khan, Yoon et al. 2014).»

« Social media data-driven analytics relies on social media location data to mine and map location of social media users, content, and data. Social media location information comes mainly from GPS and IP. »

« L’analyse « data-driven » sur les médias sociaux repose sur les données de localisation afin de « cartographier » la localisation des utilisateurs, des contenus et des données. Les informations de localisation proviennent principalement des GPS et adresses IP. »

« Les services social media basés sur la localisation deviennent une réalité actuelle. Les organisations utilisent les services de localisation à une variété de fins, y compris le following. »

« Les organisations peuvent récolter des données de localisation pour recommander des produits, des services, et des évènements sociaux à des clients potentiels en temps réel à mesure qu’ils approchent de certaines localités. »

« Alors que les services basés sur la localisation apportent la facilité, la commodité et la sécurité des clients et de la valeur à l’entreprise, ils soulèvent également de graves questions de vie privée aussi liées à la collecte, la conservation, l’utilisation et la divulgation des informations de localisation (Minch 2004). »

�55

Annexe 2 - SYNTHESE DES FOCUS GROUPS

Trois types de focus group :

- Les 18-25 ans, actifs ou passifs sur les réseaux sociaux

- Les 25-35 ans, actifs ou passifs sur les réseaux sociaux

- Les 35 ans et plus, actifs ou passifs sur les réseaux sociaux

Grands thèmes abordés :

-L’usage des réseaux sociaux -Les données personnelles -L’usage des données personnelles par les marques (focus sur les réseaux sociaux)

L’usage des réseaux sociaux

À la question «sur quels réseaux sociaux êtes vous présents et pourquoi ?» les réponses sont spontanées et quasiment les mêmes pour chaque groupe (18-25 ans, 25-35 ans, 35 ans et plus). Les réseaux sociaux les plus cités sont : Facebook, Twitter, Instagram, Snapchat et Pinterest, les réseaux comme LinkedIn ou Viadeo donc plus professionnels sont également cités. Il est intéressant de voir que malgré la différence d’âge des participants, ils utilisent les mêmes réseaux.

Les participants utilisent ces réseaux pour «prendre contact avec ma famille, mes amis», «pour partager des contenus», «pour me permettre de rester au courant». Il est cependant surprenant de noter que pratiquement tous les participants se définissent comme des utilisateurs passifs de ces réseaux sauf quelques-uns qui pensent partager beaucoup de contenus. Ils préfèrent observer que partager.

Les tablettes et les mobiles sont les devices les plus cités en terme d’utilisation, l’ordinateur reste peu cité. Les participants admettent être sur leur téléphone portable toute la journée et qu’ils consultent donc leur comptes sur les réseaux sociaux dès qu’ils en ont l’occasion : pause, métro, bus, attente.. Les plus de 35 ans déclarent ne jamais aller sur les réseaux sociaux au travail alors que les deux autres groupes déclarent surfer sur les réseaux sociaux n’importe quand, même en étant à l’école ou au travail. L’utilisation est donc beaucoup plus active chez les plus jeunes.

�56

La plupart des participants pensent suivre entre 5 et 10 marques sur les réseaux sociaux et parmi elles ils citent «Coca Cola, Heineken, Oasis, Redbull, Nuxe». Ils disent tous ne pas savoir exactement combien de marques ils suivent et la plupart du temps ne pas se rendre compte quand ils suivent une marque. Il est intéressant de noter que les marques suivies proposent toutes des contenus drôles, beaux ou très recherchés. Aucune marque «fonctionnelle» ou proposant des promotions ou des «bonnes affaires» comme Darty ou Cdiscount par exemple ne sont citées. Les contenus sont donc d’une grande importance pour tous les participants.

Pour les 18-25 ans les contenus partagés par les marques sont «juste du divertissement, ce n’est pas très pertinent pour moi», alors qu’au contraire pour les 35 ans et plus «si le contenu est beau cela m’intéresse et attire mon attention sinon je zappe». La beauté des contenus rentre donc en compte pour l’attention des 35 ans et plus, mais les plus jeunes ne recherchent que le divertissement.

Les 18-25 ans veulent se divertir sur les réseaux sociaux, que l’utilisation reste légère et ludique, ils ne veulent pas que ces réseaux deviennent «un prospectus publicitaire avec des prix et des offres inintéressantes.». Les 25-35 ans sont attirés par les beaux contenus, mais également par les promotions. Il est donc intéressant de noter que chaque groupe a une caractéristique importante qu’il souhaite retrouver dans les contenus proposés par les marques.

Au niveau des publicités diffusées sur les réseaux sociaux, la majorité des participants sont contre et ne voient pas l’intérêt. Les plus de 35 ans déclarent «C’est trop agressif, j’ai l’impression d’être traqué et d’être poussé à la consommation.» «Je me sens espionné et avec les publicités j’ai la sensation de ne plus passer un instant de détente et ludique sur les réseaux sociaux.». Les 18-25 ans et les 25-35ans, s’avèrent un peu plus ouverts mais émettent tout de même des réserves « J’étais plutôt contre à la base, mais je me suis rendue compte que c’était dans notre intérêt au final donc j’ai changé d’avis, ça permet de retrouver ce qu’on a cherché facilement.». Dans un intérêt de personnalisation et de rapidité, les plus jeunes voient donc l’intérêt des publicités sur ces réseaux. Une participante du groupe des 25-35 ans déclare «C’est moi qui décide si je clique ou pas, c’est mon choix au final donc ça ne me dérange pas plus que ça et en fait les publicités de côté je ne les vois même pas, uniquement celles qui passent directement dans mon fil.».

�57

Unanimement les participants n’ont jamais cliqué et finalisé un achat via les publicités sur les réseaux sociaux.

Les données personnelles

Au niveau de la data en tant que telle, à la question «Qu’entendez-vous par utilisation des données personnelles?», les trois groupes ont des réponses différentes. Pour les 18-25 ans c’est «quand on rentre notre nom, notre mail, notre adresse, notre numéro de téléphone, etc. tout ce qui touche à l’identité personnelle et qui permet par la suite de nous vendre quelque chose en nous ciblant.».

Pour les 25-35 ans c’est plutôt «l’accès à nos clics, nos historiques de navigation, le référencement de nos adresses IP».

Finalement pour les 35 ans et plus cela s’avère être «le scan systématique de tout ce que nous faisons sur le web, tout ce que nous produisons en terme de photos, vidéos, posts, etc.». Les trois groupes ont donc tous cité des éléments qui constituent la globalité de ce qu’on entend par «données personnelles». Tous les participants sont d’accord pour dire que si l’utilisation des données reste anonyme et qu’il n’y a pas de fiche sur eux cela n’est pas très gênant en soit.

Dans l’ensemble ils sont quand même tous méfiants sur cette utilisation, car ils n’apprécient pas le fait de ne pas savoir où vont leurs données et le fait de savoir que les marques se font de l’argent à leur insu.

La majorité des participants sont d’accord (sauf deux trois personnes du groupe des 35 ans et plus), pour dire qu’ils ont une part de responsabilité dans cette utilisation, car «on choisit de poster des choses sur internet, on choisit de donner notre adresse mail pour recevoir une newsletter, on choisit de liker la page d’une marque, car on aime ses contenus, donc on a une part de responsabilité, car on leur donne de la matière.» Ils reconnaissent donc que les marques utilisent dans la plupart des cas uniquement ce qu’on leur donne.

Les 18-25 ans se sentent vraiment concernés par cette utilisation, mais ils redoutent les années à venir, et surtout quand ils auront l’âge d’avoir des enfants; leurs enfants ne sauront plus ce qu’est la vie privée. Leurs préoccupations concernent donc plus leurs futurs enfants qu’eux-mêmes, car ils considèrent qu’ils sont nés avec ce système de récupération de toutes leurs données.

�58

Spontanément tous pensent qu’ils partagent peu de données consciemment, mais énormément de manière inconsciente.

L’utilisation des données personnelles par les marques

Les plateformes qui leur viennent en tête sur l’utilisation la plus active de leurs données sont : Google, Facebook, Gmail, Amazon et 3 Suisse. Une personne du groupe des 25-35 ans cite même la NSA. Ils se sentent réellement «espionnés de partout, à tout moment», sur tous les réseaux qu’ils utilisent, mais ils ne se voient tout de même pas quitter ces lieux de partage dans l’immédiat ce qui reste plutôt paradoxal.

Au niveau des avantages de cette utilisation, ils citent «trouver des produits en accord avec mes intérêts d’achats et avoir un système de publicité personnalisé.» ,«le fait de pouvoir arrêter des terroristes», les avantages sont donc peu nombreux. Les freins sont beaucoup cités «le manque de proposition pertinente», «J’ai peur qu’on en abuse, même avec le droit à l’oubli. Que les marques gardent nos données indéfiniment.».

En général chaque personne a cité un avantage pour deux inconvénients ce qui traduit très clairement leur méfiance et leur manque d’information au niveau de cette utilisation.

Pour tous les groupes, il n’y a pas de bonne manière d’utiliser leurs données personnelles « ça ne peut être qu’à des fins commerciales dans la plupart des cas.», une participante déclare tout de même «ça peut être de la protection dans une certaine mesure, si on peut empêcher des suicides ou ce genre de choses grâce aux données pourquoi pas.». Au niveau des marques la personnalisation et le ciblage sont les seuls avantages qu’elles peuvent en tirer pour les participants des trois groupes.

Une personne du groupe des 35 ans et plus déclare «si c’est bienveillant oui, s’il n’y a pas de perte de confiance oui. Ça peut améliorer la relation client grâce à la personnalisation, mais ça ne doit pas devenir intrusif.» La relation client entre donc en avantage ce qui est très intéressant dans la mesure ou cela n’avait pas encore été cité auparavant.

�59

À la question « Pensez-vous que l’utilisation des données personnelles soulève un problème d’éthique ?» les 18-25 ans déclarent : «oui bien sur, les marques s’échangent nos données et ce n’’est pas totalement légal, il y a un ou juridique, notamment sur l’échange avec des sociétés étrangères en raison du droit international. On ne sait pas si c’est vendu ou pas, il faut lire les conditions d’utilisation, mais personne ne le fait jamais». Les trois groupes sont d’accord pour dire que l’éthique joue en rôle très important dans l’utilisation des données personnelles, mais que les marques ne respectent pas toujours cette morale si précieuse. Leur niveau de confiance (unanimement pour les trois groupes) avoisine le 0.

Une participante du groupe des 18-25 ans déclare tout de même : «je continue à suivre les marques je n’en suis pas encore au point à être vraiment frustrée, mais si il y a un gros scandale avec l’utilisation des données je remettrai peut être en question mon attachement aux marques.».

La confiance passe également par les data-centers, en effet beaucoup de participants entendent de plus en plus que certains data-centers se font hacker. Ils ont peur que leurs données soient volées et revendues à n’importe qui.

Réactions face à différents exemples concrets

SFR, Darty, IBM..

Face aux exemples présentés, les 18-25 ans ont changé leurs avis sur l’utilisation des données. Sur les exemples montrés, seul l’exemple de SFR a retenu leur attention. En effet pour l’exemple de SFR ils déclarent «ça sert à la marque, mais à nous aussi au final, c’est plus bénéfique que ce que je pensais avant, ils travaillent nos données, mais si ça peut améliorer le service et le produit ça peut être bénéfique.».

Les 25-35 ans n’ont pas changé leurs perceptions de cette utilisation : « On devrait être payés en tant qu’utilisateurs parce qu’ils utilisent ce que nous produisons pour améliorer les choses. Toutes les marques disent qu’elles font des actions dans notre intérêt, mais au final ce n’est que pour en tirer du profit.».

Les 35 ans et plus n’ont pas changé leur perception et pensent que toujours qu’il faudrait «beaucoup plus de transparence» quant à cette utilisation pour nous permettre de retrouver la confiance perdue marque/consommateurs.

�60

Dans l’ensemble si l’utilisation sert à personnaliser des contenus et à améliorer la relation client les participants déclarent qu’ils sont pour.

Conclusion

En conclusion tous les participants sont méfiants et n’ont plus confiance dans les marques face à l’utilisation de leurs données personnelles sans leur autorisation. Les participants utilisent tous les réseaux sociaux populaires comme Facebook et Twitter par exemple et malgré leur méfiance ils ne se sentent pas prêts à quitter ces réseaux pour le moment. L’avantage à l’utilisation de leurs données est pour pratiquement tous les participants la personnalisation. En effet pour eux cela induit un gain de temps grâce à des contenus plus ciblés. L’amélioration de la relation client grâce à cela est aussi un effet positif de cette utilisation. Les marques ont donc un travail de transparence à effectuer pour regagner la confiance de leurs utilisateurs. Les publicités doivent être travaillées de manière à être du brand content par exemple, pour être beaucoup moins intrusives.

�61

Annexe 3 - INTERVIEWS

Interview de Clément Brigyer

1. Pouvez-vous vous présenter ?

Après 5 ans et demi de gestion de réputation en agence digitale, j’ai monté mon agence (Digital Insighters) avec une ancienne collègue d’ailleurs. On se spécialise en analyse de social data pour les marques.

2. Quelle est pour vous la description de la data en 140 caractères ?

La data c’est à la fois une riche opportunité en terme de prise de décision et en terme de transformation digitale des entreprises.

3. Comment la data a-t-elle changé la manière de fonctionner des entreprises selon vous ?

Le fonctionnement a totalement changé, car la data concerne plusieurs métiers traditionnellement attribués à des départements différents. Du coup les entreprises ne peuvent plus travailler en silos et cela force ces mêmes départements à communiquer entre eux. Les entreprises doivent donc aujourd’hui, grâce à la data, se concentrer sur les clients plutôt que leurs objectifs internes. Elles évoluent et ça c’est grâce à la data.

4. Quelles sont pour vous les qualités et les défauts de la big data ?

En terme de qualité ça reflète une certaine vérité plus qu’un focus groupe ou une étude de marché traditionnelle. Une autre qualité c’est qu’elle est moins biaisée quand la méthodologie est saine, elle permet une aide à la décision plus rationnelle et indéniable. J’aime beaucoup une citation de Marissa Mayer la CEO de Yahoo, qui chez Google avait rendu la citation du statisticien américain W. Edwards Deming célèbre : « In god we trust, all others bring data » central à leurs prises de décision. Peu importe les compétences, il faut amener de la data. C’est aussi une opportunité de contrôle démocratique, on peut beaucoup plus déceler la corruption ou la mauvaise gestion d’une institution par exemple. L’analyse de big data a déjà fait tomber des boites, des politiciens, des sportifs...

Sa vitesse fait qu’on peut sentir les changements arriver beaucoup plus vite qu’avant et cela est remarquable.

�62

En défaut c’est que trop de gens commencent à faire confiance à la data sans la comprendre, ils ne prennent pas en considération les biais et la méthodologie. La big data entre les mauvaises mains et pour les mauvaises raisons peu mener à des gros problèmes. Exemple de la NSA et de l’espionnage de masse par les militaires. D’après l’administration américaine, aucun attentat a été arrêté grâce à l’espionnage de masse pour le moment. C’est présenté comme une solution à tout, mais ça ne l’est pas. Ça marche sur une certaine typologie de personne, mais pas sur les terroristes par exemple donc le problème d’éthique reste entier. Pour trop de monde la big data reste un problème de logiciel alors qu’on a besoin de la combinaison logiciel plus analyste. On a toujours besoin d’un humain derrière et ça peu de gens le comprennent.

5. Toutes les entreprises peuvent-elles se lancer dans la big data ?

La réponse courte est oui. Maintenant elles ne fonctionnent pas toutes de la même manière. Au sens très large General Electric qui analyse ses usines ou ses moteurs d’avions c’est un cas industriel qui est logique aujourd’hui, mais qui ne l’était pas quand l’entreprise a débuté sa démarche par exemple. Aujourd’hui est-ce qu’un musée parisien peut utiliser la big data ? C’est oui aussi. L’État français a par exemple constitué des bases de données de ses oeuvres d’art.

Sur l’analyse de social data dès qu’on a une marque, on peut analyser ce qui se dit de nous-mêmes sur les réseaux sociaux. Même si on n’existe pas en tant que marque dans le web on peut quand même analyser son marché pour mieux cibler et mieux comprendre l’environnement dans lequel on va évoluer.

Avec mon entreprise on travaille avec des start-ups, ils voulaient mieux comprendre leur marché et leur cible, mais également développer leur réseau de distribution. Nous nous sommes posé la question de savoir : quels sont les arguments qui peuvent convaincre une vendeuse directe indépendante de rejoindre le réseau d’une entreprise plutôt qu’une autre? En analysant les conversations des gens, ça les a aidés à adapter le discours, mais aussi à savoir qu’il ne fallait pas cibler tous les vendeurs qui de toute façon ne seraient pas intéressés. Grâce aux données sociales, on augmente le taux de succès indéniablement.

6. Quels sont les avantages pour les entreprises à utiliser la big data sur les réseaux sociaux ?

�63

Les utilisateurs ont des prises de paroles beaucoup plus spontanées, sincères et sans filtres et du coup on identifie beaucoup plus rapidement les consommateurs qui sont intéressés par la marque ou le marché sans avoir à les solliciter directement. Contrairement à un focus groupe où on va poser une question et où le consommateur pourra peut être se retenir en raison du groupe ou de l’environnement. Ce sera beaucoup moins spontané alors que sur Internet les langues se délient beaucoup plus aisément et cela donne des avantages aux marques dans le sens où l’on peut mieux analyser et mieux cibler leurs publics cibles. J’aime beaucoup une citation de Jeff Bezos CEO Amazon : « Your reputation is what people say when you’re not in the room »?.

7. La complexité à mettre en place cette technologie sur les réseaux sociaux n’est-elle pas un frein ? (sens : les entreprises peuvent être effrayées par cette abondance de données..)

Aujourd’hui mettre en place soit même une technologie d’analyse des réseaux sociaux est très complexe, mais il y a des prestataires qui le font déjà. Certaines sociétés sont établies depuis très longtemps déjà et se lancer soit même à développer une technologie d’analyse des réseaux sociaux est beaucoup plus risqué.

8. Avez-vous des exemples d’entreprises qui ont réussi à intégrer la technologie big data dans leurs stratégies sur les réseaux sociaux ?

Nous travaillons pour une entreprise qui veut comprendre comment les consommateurs s’attachent à elle, mais malgré toutes les datas dont l’entreprise dispose elle n’arrive pas bien à identifier la raison. En analysant toutes les conversations en temps réel ils ont vu comment les gens ont réagi à chaud à certaines campagnes, à certaines prises de parole et du coup savoir combien de personnes ont réagis. Ca permet d’avoir des retours plus qualitatifs que si on les interviews par exemple. Aller chercher la data sur les réseaux sociaux pour analyser la cible ça apporte une vision beaucoup plus réaliste qu’une étude de marché réalisée sur un panel de consommateurs comme j’ai pu le dire plus haut.

9. Si vous aviez une recommandation à faire à tous les community managers pour l’usage de la data sur les réseaux sociaux qu’elle serait-elle ?

�64

Choisissez un nombre limité de KPI (Key Performance Indicators) pertinents à suivre dans le temps. Cela peut être le nombre de mention de sa marque, la part des conversations positives, le nombre de partages de ses publications. La data doit être un outil d’aide à la décision, donc il faut l’utiliser pour mieux choisir/adapter sa ligne éditoriale. Elle doit aussi aider la décision des décideurs de l’entreprise donc il est utile de prendre en compte l’aspect « ROI » du travail de Community Manager. Est-ce qu’il y a des nouveaux prospects grâce à l’action du CM ? Est-ce qu’ils se convertissent en ventes ? Ceux qui sont en freelance ont aussi souvent peur de payer un abonnement mensuel pour des outils de veille très utiles et qui valoriseront leur travail.

10. Selon vous : comment l’explosion quantitative de la data peut elle permettre aux marques l’opportunité de mieux cibler et de mieux s’adresser à leurs publics ?

L’explosion de la data d’un point de vue quantitatif ne suffit pas. Il faut de la variété à la data pour que cette explosion soit utile aux marques. Le ciblage peut s’améliorer grâce aux data suivantes sur les internautes (toutes accessibles publiquement sur les réseaux sociaux) :• Genre

• Age

• Géographie

• Sujets de prédilection

• Opinion sur ma marque, sur les concurrents

• Les marques peuvent adapter leur ligne éditoriale pour mieux s’adresser à leur « vrai » public, pour mieux cibler leurs publicités. Une tendance initiée par Google appelée les « micro-moments » permet même de cibler l’envie spontanée d’un internaute, qui par exemple va ouvrir Google maps sur son smartphone pour chercher un restaurant ou bar.

�65

Interview : Zorana Ratkovic

1.Pouvez-vous présenter votre parcours professionnel ?

J’ai fait une maitrise en intelligence artificielle au Canada basée sur le traitement du langage naturel. Par la suite j’ai fait un master européen à Prague et en Italie et une thèse sur le traitement automatique de la langue et sur l’extraction d’information. À la n de ma thèse, je voulais appliquer cela dans le monde réel et faire des choses que les gens utilisent donc avec des vraies données et des vraies applications. Aujourd’hui je travaille dans une petite startup qui gère principalement le lead et le digital marketing via la donnée. On essaye d’extraire de l’information et l’utiliser sur des bases de données, faire des modèles prédictifs et utiliser des données multilingues issues de ressources extérieures. Nous faisons plusieurs types d’analyses, mais je m’occupe principalement des données textuelles, de la création d’algorithmes et de modèles.

2. Vous êtes data scientist en natural language processing, pouvez-vous expliquer ce que c’est ?

Le TALN ou TAL (traitement automatique du langage naturel ou de la langue naturelle ou des langues) permet d’analyser des données non structurées et permet de mettre en application la linguistique, l’informatique et l’intelligence artificielle en faite.

3. Quelle est pour vous la description de la data en 140 caractères ?

C’est une grande quantité d’informations très variées qui a besoin d’être traitée de manière à en dégager des choses intéressantes.

4.Comment la data a-t-elle changé la manière de fonctionner des entreprises selon vous ?

Je pense que beaucoup de personnes se basent sur la data aujourd’hui. Avant on se baisait plus sur l’expertise des éléments humains de l’entreprise, alors que maintenant on laisse la data parler. L’humain ne pouvait pas traiter cette masse d’informations avant, mais aujourd’hui grâce à la technologie on peut voir des tendances et des patterns. Cette source d’informations a permis d’influencer pour analyser, prédire et guider le travail des éléments humains. Dans ma startup on permet aux entreprises de trouver des leads qualifiés grâce à la data, le business en tire donc un avantage non discutable dans ce cas de figure.

�66

5.Quelles sont pour vous les qualités et les défauts de la big data ?

Au niveau des qualités, je pense que cela a permis de changer la manière de penser, car on dispose d’une quantité de données incroyable, mais grâce à cette nouvelle technologie, cette nouvelle source d’information cela nous permet de trouver des informations beaucoup plus spécifiques. Cela encourage également une spécialisation beaucoup plus poussée qu’auparavant. Grâce à nos ordinateurs puissants, on peut désormais trouver des informations beaucoup plus qualifiées.

Au niveau des défauts, le principal est qu’il faut savoir s’en servir. C’est une tendance, mais c’est complexe, il faut avoir le bon algorithme et les bonnes données et savoir l’utiliser. Le problème c’est que trop de monde ne sait pas l’utiliser, les résultats ne sont pas valables, car ils ne les comprennent pas. Il faut comprendre que les données peuvent faire beaucoup de choses, c’est un basework, mais elles ne sont pas toujours la bonne solution.

6.Toutes les entreprises peuvent-elles se lancer dans la big data ?

Je pense que oui, aujourd’hui il y a assez d’information pour que tout le monde puisse les utiliser. Après il faut avoir les ressources, mais tout le monde peut s’en servir. Je travaille pour des petites startups qui ont fait de la donnée une priorité pour avancer dans leur business. Tout le monde peut donc s’y lancer si la donnée s’avère être une des priorités.

7. Avez-vous des exemples d’entreprises qui ont réussi à intégrer la technologie big data dans leurs stratégies (sur les réseaux sociaux) ?

Et bien tout d’abord les grandes entreprises comme Google, Facebook, Linkedin, Amazon etc. LinkedIn a ces derniers temps, créés des labos et des équipes parce qu’ils se sont rendu compte qu’ils pouvaient en plus de vendre la donnée, vendre l’analyse de celle-ci. Ils se sont rendu compte du potentiel business et c’est très intéressant. L’entreprise Axa vend aussi ses données maintenant. Outre les grandes entreprises je connais aussi des startups qui traitent, analysent et vendent de la donnée.

Pour citer des secteurs il y a l’évènementiel et la santé par exemple. La donnée a pu servir à prédire ou détecter des maladies et des virus sur une grande échelle. Dans la politique aussi on se sert de la data pour essayer d’analyser les communautés

�67

impliquées par exemple. Le secteur du recrutement se sert aussi beaucoup de la donnée pour trouver de potentiels talents via les compétences par exemple.

8.Selon vous : comment l’explosion quantitative de la data peut elle permettre aux marques l’opportunité de mieux cibler et de mieux s’adresser à leurs publics ?

La data permet d’avoir une idée globale, d’analyser des sentiments, des tweets, des reviews mais aussi par exemple les coûts sociaux. On utilise la donnée très souvent dans le BTOC ou l’opinion est quelque chose de très important. Cela permet d’avoir une analyse précise sur un produit, un ressentiment sur le temps, les critères et d’obtenir une analyse de ce que les gens disent autour.

9. Selon vous : la data pose t-elle un problème d’éthique et de complexité ?

Au niveau de l’éthique, pense que c’est important au niveau de la protection, sur les réseaux sociaux on accepte, on choisit de publier, mais ce sont des questions importantes qui doivent être encadrées pour le gouvernement

Au niveau de la complexité, oui, mais aujourd’hui, on a la technologie avec les ordinateurs et les algorithmes, on peut faire beaucoup plus des choses en regardant la donnée et c’est une bonne chose parce que ça a des avantages.

Interview : Isabelle Tronchet

1.Pouvez-vous présenter votre parcours professionnel ?

Alors moi j’ai commencé mon expérience professionnelle chez Orange. Je travaillais principalement sur l’activité du portail web et j’analysais l’activité des internautes afin de proposer des orientations concrètes aux chefs de produit web et mobile. Je participais aussi à la réalisation d’études de marché dans le but de trouver des leviers pour augmentation l’audience du portail pour pouvoir monétiser cette audience (notamment par la publicité). J’ai par la suite travaillé pour un institut d’études qui s’occupait principalement des post-tests publicitaires.

Je mettais en place des études online pour évaluer des campagnes de publicité pluri-média (digitales, TV, Press.) en comparant les personnes ayant vu et n’ayant pas vu la création (vidéo, affiche…).

�68

Cela nous permettait de déterminer la notoriété de la marque, la perception de celle-ci sur le marché, mais aussi évaluer la création en elle même. Cela permettait une évangélisation des campagnes publicitaires digitales afin de déterminer quel est l’apport d’une campagne digitale par rapport à une publicité presse.

Je suis ensuite retournée chez Orange, à nouveau sur la gestion du portail web, mais plus dans la gestion et l’analyse des données chiffrées. Je travaillais à vendre le portail aux annonceurs (bannières, habillages, données). Après ce nouveau passage chez Orange, je suis allée chez Dynvibe, l’entreprise où je suis actuellement. Nous analysons les médias sociaux grâce à une plateforme en propre qui fait remonter toutes les conversations sur une thématique et attribue des catégories et des tonalités de conversations. Nous proposons également un service d’études, cela dépasse la veille pure des données, car nous donnons les détails de contenus beaucoup qualitativement que les études consommateurs par exemple. L’analyse des blogs, des chaines YouTube, de Twitter et d’Instagram nous permet de retranscrire la perception de la marque par rapport à ses concurrents par exemple, mais également pour mieux connaître ses prospects et ses clients. Nous enrichissons la donnée consommateurs finalement.

2. Quelle est pour vous la définition de la data en 140 caractères ?

Pour moi c’est une masse de données très difficilement exploitable par les clients avec un ou derrière représentée par la partie quantitative.

3. Comment la data a-t-elle changé la manière de fonctionner des entreprises selon vous ?

Je pense qu’aujourd’hui il y a une peur de la donnée. Les entreprises et les marques ont pris conscience que c’était une mine d’information énorme, mais qu’il y avait un problème d’exploitation. En effet il ne faut pas se perdre à vouloir analyser des chiffres qu’on ne comprend pas et qui ne nous sont pas réellement utiles. Beaucoup de données sont en libre- service par exemple, mais il ne faut pas s’en servir n’importe comment. Elle a changé la manière de fonctionner des entreprises dans le sens ou c’est un réel problème du marketing de trouver des personnes qualifiées pour exploiter et analyser ces données.

�69

Les données ont fait évoluer les fiches métier. Ici à dynvibe nous avons par exemple créé un service d’études parce que les clients savaient très difficilement exploiter la donnée stratégique commerciale, de communication, de fidélisation, etc. La data a permis de mieux connaitre les consommateurs, mais cela dépend encore une fois de la manière dont on l’exploite. Beaucoup d’entreprises ont beaucoup de données, mais n’ont pas d’angles pour faire parler ces données et elles restent complètement inutiles et inutilisables.

4. Quelles sont pour vous les qualités et les défauts de la big data ?

Au niveau des qualités cela permet une meilleure connaissance des pro ls consommateurs, au-delà de l’âge et de leur relation aux marques afin de mieux comprendre les canaux de distribution, les communautés, etc. La data a beaucoup de qualités, mais on peut citer la principale qui est de beaucoup mieux cibler un consommateur, nous avons aujourd’hui un prisme global de lecture. Nous analysons les consommateurs avec beaucoup plus de précision : avec qui il parle, comment il s’exprime, etc.

Au niveau des défauts je pense que c’est de ne pas savoir correctement l’exploiter. Il y a tout de même une forme de complexité, ça demande des profils d’experts et c’est difficile aujourd’hui de trouver des statisticiens qui sont marketeurs à la fois. Comme je disais précédemment, ça a changé les fiches métier.

5. Toutes les entreprises peuvent-elles se lancer dans la big data ?

Je pense que cela nécessite en amont de bien avoir réfléchi à une stratégie. En effet il faut bien se demander comment l’exploiter, comment la préparer, quelle vision appliquer et surtout ce qu’on veut en tirer. S’il n’y a pas de stratégie et d’objectifs, ça ne sert pas à grand-chose de se lancer.

6. Quels sont les avantages pour les entreprises à utiliser la big data sur les réseaux sociaux ?

Ils sont multiples. Tout d’abord mieux connaitre les clients, mais également les concurrents, mieux comprendre les consommateurs et mieux leur parler, segmenter leurs cibles, et détecter les signaux faibles qui peuvent être très importants. Cela permet également de détecter les signaux faibles et les failles concurrentielles. Les réseaux sociaux sont une mini représentation de la population et donc une étude

�70

consommateurs puissance 10 ! Les focus groupe sont réalisés dans une situation de test donc même si les propos des participants sont spontanés ça reste un test. Sur les réseaux sociaux les consommateurs ne s’attendent pas forcement à ce qu’on prenne leurs données, ils s’expriment beaucoup plus spontanément, il n’y a pas de biais par rapport à une situation de test. Nous pouvons recueillir a chaud la perception d’une marque et d’un produit.

7. La complexité à mettre en place cette technologie sur les réseaux sociaux n’est-elle pas un frein ? (sens : les entreprises peuvent être effrayées par cette abondance de données..)

Tout dépend de leur volonté pour comprendre ce qui se dit de leur marque. Une marque dont on ne parle pas sur les réseaux sociaux peut ne pas s’y intéresser ou mettre en place et utiliser des outils libres de droits et gratuits pour suivre son actualité. Mais pour les grandes entreprises comme L’Oréal ou Disney tout le monde parle de votre marque et il faut régler vite les problèmes et les sujets sensibles. Donc pour les petites entreprises sans données propres ou sans moyens la complexité peut être réelle, mais pour les grandes marques je pense que la complexité n’est pas un frein, car elles ont les technologies et les moyens ou alors elles peuvent s’allier à des prestataires spécialisés sur le sujet.

8. Avez-vous des exemples d’entreprises qui ont réussi à intégrer la technologie big data dans leurs stratégies sur les réseaux sociaux ?

Je peux citer par exemple L’Oréal, car ici à Dynvibe nous travaillons pour cette marque. Nous recueillons beaucoup d’avis consommateurs, des paroles de blogueuses qui présentent des produits, etc. C’est très intéressant dans le sens où nous pouvons décortiquer tous les usages des consommateurs, ce qu’ils disent, ce qu’ils montrent sur les réseaux sociaux pour en traduire des analyses efficaces afin que la marque s’adapte et se réajuste. Par exemple nous avons eu le cas d’un produit qui n’avait pas du tout été utilisé dans le sens ou la marque l’avait vendu. Nous avons pu analyser les conversations pour faire remonter cette information à la marque.

9. Selon vous la Data pose-t-elle un problème d’éthique ?

Je pense qu’au niveau des marketeurs non, mais au niveau du grand public, oui. Il y a une certaine frilosité, les consommateurs ne veulent pas qu’on utilise leurs

�71

informations, ils veulent protéger leur pro l Facebook, mais en même temps on utilise les données de Google Map et on s’étonne. Il est très difficile d’y échapper en tant que consommateurs mais il y a des points positifs à cette utilisation, car cela permet aux marques de ne pas spammer les utilisateurs et de leur proposer des contenus personnalisés et beaucoup plus adéquats. Je pense que la donnée posera beaucoup plus de problèmes dans les années à venir lorsque l’explosion sera encore plus forte.

10. Selon vous : comment l’explosion quantitative de la data peut elle permettre aux marques l’opportunité de mieux cibler et de mieux s’adresser à leurs publics ?

Les marques arrivent a récupérer des données qu’elles n’avaient pas avant avec les questionnaires de satisfaction. Il y a énormément de données qui ressortent naturellement et cela est également un indicateur, car si l’information ne ressort pas c’est que cela ne marche pas. Les puristes diront que l’analyse des données ne vaut pas les études consommateurs mais aujourd’hui beaucoup de marques ciblent les 18-35 ans et cette cible se trouve sur les réseaux sociaux. Les réseaux sociaux sont donc une mine d’informations à exploiter qui permet grâce à l’analyse et à l’exploitation de mieux cibler les publics de la marque.

Interview : Marguerite Leenhardt

1. Pouvez-vous présenter votre parcours professionnel ?

Plutôt atypique, je me destinais aux CPGE littéraires, mais cela ne m’a pas plu, je recherchais de la pluridisciplinarité et souhaitais allier mon goût pour la langue à celui de l’informatique. J’ai découvert les formations en Sciences du Langage et ai décidé de poursuivre et de me spécialiser dans la branche informatique, en Ingénierie linguistique. En parallèle on m’a sensibilisée au fait de faire des stages tôt, j’ai donc effectué autant de stages que je pouvais dès la deuxième année de Licence. Avec 18 mois d’expérience acquise en stage en n de Master 2, j’avais déjà pas mal d’expérience : ça permet de décrocher des jobs intéressants et de choisir ce qu’on veut faire.

Je suis passée chez Publicis Consultant, pour travailler sur de la veille web. La perspective de m’intégrer en thèse CIFRE ne les a pas séduits, et moi je tenais à développer ma compétence R&D pour l’entreprise.

�72

Dans les grandes structures, on est dans un silo en quelque sorte et je voulais toucher à tout et être polyvalente pour comprendre et contextualiser ma compétence dans une entreprise, en créant de nouvelles offres.

Je me décide donc à partir en doctorat seulement si j’ai une application entreprise directement liée à mon sujet, et avec mon sujet sous le bras j’ai démarché des entreprises. En parallèle je me lance dans le consulting – Publicis remporte un appel d’offres sur mes compétences d’Ingénierie linguistique et me propose de travailler en consultant externe – et j’en viens à fonder mon entreprise individuelle : mon premier employeur, c’est moi.

Quelques mois plus tard, je travaille dans une entreprise à taille humaine qui dépose le bilan en 2011, donc je me retrouve en licenciement économique sans avoir ni ma thèse. Je touche le chômage et c’était très déstabilisant, mais après quelques semaines l’activité de mon entreprise individuelle, que j’avais un peu mise de côté, reprend. Je faisais de petits contrats et je me suis tout de même posé la question de la clôture, mais en 2012 les mentalités ont évolué : de plus en plus d’entreprises commencent à comprendre l’importance de pouvoir traiter de grandes masses de données en langage naturel, avec l’importance des réseaux sociaux. J’ai participé à la première édition des 24h Chrono spécial CIFRE qui donne en quelque sorte les clés pour se projeter plus loin que le statut juste de freelance. À cette période je me suis rapprochée de Gaël Patin, car nous étions dans les mêmes circuits universitaires et je cherchais plus de solidité technique sachant que ce n’est pas ma spécialité et que je sentais mes limites dans ce domaine. Gaël était en train de développer des composants d’extraction de contenus, et c’est comme ça que nous nous sommes lancés dans notre entreprise XiKO. En parallèle de toutes ces expériences, j’ai également donné des cours à la fac pendant plusieurs années, cela m’a énormément apporté.

2. Quelle est pour vous la description de la data en 140 caractères ?

La donnée c’est une observation et une mesure au sens statistique du terme, c’est un évènement statistiquement qualifié. En gros c’est un concept général pour renvoyer à tout ce qui peut se compter.

�73

3. Comment la data a-t-elle changé la manière de fonctionner des entreprises selon vous ?

En fait très simplement, il y a deux types de données : quantitatives et qualitatives. Le data mining existe depuis très longtemps dans le marketing, la donnée aujourd’hui n’est plus seulement chiffrée, ce sont des données de contenus principalement textuelles en terme d’informations. Les textes sont produits par des professionnels, mais aussi par n’importe qui d’autre, les entreprises doivent s’adapter à traiter des textes tout-venant. Ce qui a changé c’est donc l’intégration de la linguistique, de la sémantique et de beaucoup plus de chiffres.

4. Quelles sont pour vous les qualités et les défauts de la big data ?

Alors je ne parlerais pas de défauts, mais d’objet qu’on commence tout juste à bien étudier pour le comprendre. Le seul défaut des big data, c’est d’être quelque chose qu’on ne traitait pas avant. C’est cette complexité qui en fait tout l’intérêt ; elle est au service de la qualité et de l’efficacité de tous les dispositifs programmatiques. C’est une efficacité média et publicitaire, marketing, mais aussi un enrichissement CRM et analytique du web pour cibler l’audience par exemple. Aujourd’hui la tendance (plus fortement en ce début d’année) est, l’envie pour certains acteurs de synchroniser ces données pour nourrir l’ensemble de la stratégie consommateur et l’efficacité des campagnes marketing et publicitaires.

Elle a des avantages énormes. La data est par exemple l’une des sept ambitions stratégiques mises en avant par l’Élysée pour les prochaines décennies. Elle est mise en avant au même titre que les énergies propres ou la santé connectée. Aujourd’hui notre société est digitalisée, notre société est une société de données. Aujourd’hui grâce au web listening on peut fournir des learnings, des insights, sur les différences de perception socioculturellement dé nies, sur des populations à l’étranger. Certaines grandes agences utilisent même le web listening pour y adosser leur planning stratégique, à raison.

5. Toutes les entreprises peuvent-elles se lancer dans la big data ?

Non, elles ne peuvent pas toutes se lancer dans la data, toutes les données ne se traitent pas de la même manière, certains types peuvent être utilisés par tout le monde comme les données analytiques par exemple, ça, ce n’est pas un souci.

�74

Cela est plus délicat quand on tombe sur des données audios, vidéos et textuelles, cela est plus compliqué à traiter, car le premier problème est de se structurer pour accueillir les expertises, les profils adéquats. Aujourd’hui, les entreprises sont encore dans une phase d’apprentissage, de remise en question de nombreuses multinationales ont un talon d’Achille sur exploitation des données. Aujourd’hui ces savoirs essentiels à la maîtrise de la data rendent le tissu économique a deux vitesses : les multinationales se calquent sur les méthodes d’agilité propres aux startups.

6. Quels sont les avantages pour les entreprises à utiliser la big data sur les réseaux sociaux ?

Déjà sur les contenus, la production puis l’analyse, en dehors de ça il y a d’autres exploitations, sur les campagnes publicité on a tout ce qui va être relatif à la génération dynamique de contenus publicitaires. La data d’audience et de contenus est utilisée pour mieux contextualiser le contenu proposé aux consommateurs.

7. La complexité à mettre en place cette technologie sur les réseaux sociaux n’est-elle pas un frein ? (sens : les entreprises peuvent être effrayées par cette abondance de données.)

Je pense qu’il y avait ce côté effrayant avant, le marché s’est structuré de telle sorte que les entreprises qui ont des appréhensions puissent être accompagnées par d’autres acteurs spécialisés aujourd’hui. Le point des réseaux sociaux c’est un point dans l’ensemble des problèmes liés à l’arrivée de la donnée dans l’entreprise. Cette donnée sur les réseaux sociaux peut avoir du sens pour elle-même, mais elle n’a de véritable valeur qu’en étant connectée avec d’autres points de contacts qu’a l’entreprise avec ses consommateurs.

Le réseau social est défini en quelque sorte par Twitter et Facebook, mais il définit aussi tous les contenus en instant messaging, c’est aussi étendu que les points de contacts de l’entreprise avec ses utilisateurs. Un réseau social c’est large, la question est don de savoir ce qu’est le réseau social pour en appréhender la complexité. Les problématiques en termes de données peuvent être similaires, le contexte d’application peut par contre varier. Sur Linkedin on sait qu’on va jouer avec la communication d’entreprise, mais cela appelle mécaniquement des travaux d’exploitation pour mettre en relation différents profils.

�75

On utilise des moteurs de suggestion et de recommandation, pour optimiser les campagnes RH par exemple. Mais cela n’induit pas le même schéma de création de valeurs sur tous les réseaux. Facebook est orienté consumer et marketing, mais les SAV ou CRM sont orientés sur la remontée d’incidents et de sentiments. Ils utilisent donc un canal plus fluide, mais traditionnel au final. Les réseaux sociaux sont des caisses de résonance, pour le média c’est Twitter, pour le marketing Facebook, et le fond du mécontentement ce sont les forums, mails, enquêtes de terrains, etc.

8. Avez-vous des exemples d’entreprises qui ont réussi à intégrer la technologie big data dans leurs stratégies sur les réseaux sociaux ?

Nike est une entreprise qui s’est bien adaptée au tournant du numérique et qui est très innovante. Ils activent tous les leviers, par exemple pour les derniers concepts Air Jordan, ils se sont approprié les codes Pinterest et Tumblr. Aujourd’hui on cherche à parler aux audiences avec des codes visuels, des contenus et des médiums qui correspondent aux consommateurs. Burberry cherche à détricoter l’image traditionnelle qu’elle peut avoir, au niveau des chiffres sur certains territoires américains par exemple ils ont rénové cette image en intégrant la data et en digitalisant toute l’expérience utilisateur. Ils ont créé des dispositifs créatifs très innovants pour engager les cibles. Ils ont fait converger les contenus pour impacter les consumers sur tous les Devices. Être partout, au bon moment au bon endroit. C’est une mécanique complexe, mais ils ont bien négocié le tournant du numérique et en ont récolté un engagement plus fort accompagné d’une augmentation de la valeur financière.

9. Selon vous la Data pose-t-elle un problème d’éthique ?

Disons que l’éthique c’est un code moral, nous n’avions pas le même il y a 100 ans et nous n’aurons pas le même dans 100 ans. Dans le médical y avait des choses inimaginables comme le transhumanisme par exemple, c’était inconcevable, de la science-fiction et moralement pas bien reçue. D’ici 10 ou 20 ans, ce sera réel, l’éthique change avec la culture.

Pour en revenir à la data, il y a deux volets, le volet d’exploitation des données personnelles et le volet d’exposition des audiences à des contenus adéquats.

�76

Les jeunes audiences sont par exemple susceptibles d’être en relation avec des contenus sensibles non souhaitables, violents. Citons comme exemple les playlists YouTube, il est possible d’être face à un contenu absolument pas adéquat pour un enfant et ça pose un problème d’éthique. Ce n’est pas l’algorithme qui ne fonctionne pas c’est celui qui a créé l’algorithme qui peut ne pas avoir pensé à toutes les alternatives tout simplement.

Qu’est-ce qu’on fait des données personnelles (mail, carte bleue, passeport) ça c’est un vrai souci, mais est-ce que c’est vraiment un souci de la data ? La revente de fichiers ça existe depuis toujours, mais ça se voyait moins, c’était moins traqué, il y en avait moins et c’était plus difficile. Ca ne rend que plus flagrants des symptômes de problèmes éthiques, mais ce n’est pas inhérent à la data.

L’éthique du contenu, avec les fausses reviews par exemple remet en cause l’éthique des sociétés qui font ça. Les entreprises qui ont une page Facebook et qui veulent augmenter le nombre de like, questionnent l’éthique des agences qui achètent des clics. Ce n’est pas lié en tant que tel à la data. Les actions qui visent la promotion de contenus peuvent être directement liées, mais les autres problèmes comme gon er les statistiques, ce n’est pas inhérent à la data, c’est une question d’éthique professionnelle. Au niveau des verbatims, quelle est la limite ? Donner l’alias n’est pas suffisant pour le marketing programmatique et publicitaire. Ces secteurs font bouger les limites de la donnée. Un enfant qui naît aujourd’hui n’a plus aucune notion de ce qu’est la donnée personnelle, les personnes âgées ne voient pas d’un mauvais oeil cette méthode, mais le biais français reste dur. C’est en train de changer, on craint, mais on ne comprend pas tout à fait au final. La première façon de donner ses données personnelles c’est les cartes de délité, la carte bleue, c’est normal en tant que particulier on craint de se faire voler notre identité. En France nous avons au moins 3 ans de délais pour les usages par rapport aux États Unis par exemple. Au niveau de l’adoption des réseaux sociaux, nous voyons une courbe de retard en France. L’industrie ne s’arrêtera pas et va toujours en demander plus et faire évoluer les principes dans ce sens. Il y a un temps d’adoption par exemple pour les maisons connectées et la santé connectée. Les maisons connectées sont une forme de renoncement de la vie privée, mais on en verra les avantages a un moment, à moins qu’il y ait un refus strict ça ne s’arrêtera pas.

�77

La confiance est fondée sur la compréhension de tout ce que ça implique, rendre sa vie moins facile, la communication moins fluide. Sans les réseaux sociaux est-ce que ça serait moins ou plus facile, il y a une conscience des consommateurs, une éducation à avoir pour faciliter. On adhère à la surveillance par instinct de sécurité par exemple.

10. Selon vous : comment l’explosion quantitative de la data peut-elle permettre aux marques l’opportunité de mieux cibler et de mieux s’adresser à leurs publics ?

Il y a une couche technique pour synchroniser les données des réseaux sociaux et les données d’ailleurs c’est ce qu’on appelle des passerelles techniques et des passerelles méthodologiques. C’est une façon de segmenter les clients, d’exploiter la data et de faire les raccordements. On confronte donc deux façons de représenter l’information a n de pouvoir l’associer. Aujourd’hui on est donc dans le cas de vouloir enrichir sa base CRM avec ce que les utilisateurs font sur les réseaux sociaux pour affiner la segmentation. Mais ça pose quoi comme problèmes au final ? Peut-être que certains segments n’étaient pas prévus, nous avons dû les intégrer, les créer. Le client n’appartient pas au même segment tout le temps, il a peut-être un parcours différent en fonction de son environnement. La question est de qualifier son audience contributrice par rapport à ceux qui interagissent avec la partie édito, l’idée c’est de réussir à dire quand ça va parler de tel type de produit ça va parler de telle façon. Il faut se demander comment intégrer cette nouvelle donnée pour mes contenus pubs a n réadapter les segments et ajouter des informations.

Il faut également se demander comment rendre agile et flexible une segmentation qui bouge moins et qui est un peu statique par rapport à un environnement qui bouge tout le temps. Le consommateur est intéressé par un truc une fois et l’autre fois par autre chose, il faut capter l’intérêt pour suivre l’évolution du consommateur et s’adapter, faire fusionner un modèle statique avec un modèle qui bouge.

�78

Annexe 4 - ETUDES QUANTITATIVES

Adobe-Neolane a publié une étude qui montre comment tirer profit de Facebook pour capter des données sur les fans et mieux interagir avec eux.

L’étude montre :

« Les types de données les plus demandées : d’une façon générale, le top 3 des données les plus demandées par les applications Facebook sont l’email, la date de naissance et les « likes ». C’est l’adresse email qui est la plus demandée pour environ 50 % des cas au Royaume-Uni, 62% aux États-Unis et 70 % en France. 20 % des applications Facebook ne requièrent aucune donnée, ce qui implique que les marketeurs ratent des opportunités d’enrichir leurs bases de données clients avec des informations à valeur ajoutée sur les comportements et les centres d’intérêt de leurs clients.»

«Les applications les plus utilisées : les applications proposant un service, des concours et des jeux sont les plus populaires sur Facebook. Les jeux occupent la première place aux États-Unis (44%) et en France (39%), et sont seulement second au Royaume-Uni (16%) alors que les services y arrivent en tête (41%), sont second aux États-Unis (19%) et troisième en France (17%). Dans chaque pays, il y a certaines particularités comme la diffusion de contenu gratuit aux États-Unis ou l’utilisation du ‘fan gate’ en France (nécessité d’aimer une page pour accéder à son contenu).»

« Les industries gagnantes : les sociétés de produits de consommation (CPG) utilisent beaucoup le social opt-in, elles sont au premier rang en France (35%), au deuxième aux États-Unis (17%) et en troisième place au Royaume-Uni (14%). Les sports, la musique et la télévision sont les prochains tops utilisateurs du « social opt-in » dans les applications Facebook.»

Source : Digital marketing blogLien de l’étude : http://www.neolane.com/usa/resources/ebooks/Facebook-app-analysis- ebook

Altimeter a publié une étude sur comment faire du business sur les réseaux sociaux. L’étude est en anglais et se nomme «The 2015 State of Social Business: Priorities Shift from Scaling to Integrating ».

�79

L’étude montre :

• 82% of businesses report they are either fully integrated, in the process of, or planning the integration of social with digital in 2015. But only 36% believe they have in place a multi-year digital strategy that includes social initiatives.

• Across all organizations, only 27% reported that executives at the VP/Director level were active on social, with a measly 9% reporting participation from the C-Suite.

• Interest in employee advocacy has grown 191% since 2013, with 45% of respondents naming it a top external objective.

• 38% of responding organizations plan to spend more than 20% of their total advertising budgets on social media channels in 2015, up from 13% a year ago.

• 55% of respondents named developing an integrated digital content strategy as a top social business priority for 2015.

Source : http://go.pardot.com/l/69102/2015-07-16/sgj4w

�80

Annexe 5 - CORPUS D’ARTICLES

Titre : Réseaux sociaux et Big Data, les nouvelles techniques pour accorder des crédits Paru : 18/08/2015Auteur : Veronique Chocron Extrait : « Facebook vient ainsi de faire le buzz avec un nouveau brevet, déposé le 4 août dernier, qui, s’il était utilisé, permettrait aux organismes de crédit d’accéder aux amis Facebook d’un client pour évaluer sa solvabilité. Selon les termes de ce brevet, « quand une personne fait une demande de prêt, le prêteur examine les notes de crédit des membres de [son] réseau social. [...] Si le score de crédit moyen de ces membres atteint un score minimum, le prêteur continue à traiter la demande de prêt. Sinon, la demande de crédit est rejetée ». De quoi soulever des questions éthiques et de confidentialité sur le prix de l’amitié selon Facebook. Toutefois, si le réseau social décidait d’activer à l’avenir ces fonctionnalités, il reste difficile à ce stade de savoir quels en seraient les contours – l’accord des demandeurs de crédits et des amis mis à contribution pourrait être nécessaire. »

Titre : Big Data : McDonald’s à l’écoute des réseaux sociauxParu : 19/06/2014Auteur : Guillaume Rameaux Extrait : « Pour analyser le flux d’informations structurées et non structurées qui arrive du web en continu ainsi que les données stockées en interne, McDonald’s mise sur la technologie Hadoop, via le service Microsoft HD Insight sur la plateforme cloud Azure, et sur une appliance SQL Server PDW (Parallel Data Warehouse) associée aux outils SQL Server Analysis Services pour la partie visualisation. »

Titre : La data au service de sa présence sur les réseaux sociauxParu : 28/04/2015Auteur : Nora Loulidi Extrait : « Les Social CRM, eux, sont l’évolution naturelle de ces outils : ils intègrent à la gestion de la relation client le support des réseaux sociaux. En 2012, selon iStrategyLabs, 80% des internautes préfèrent se connecter et échanger avec une marque via les réseaux sociaux.

�81

En intégrant la gestion des pages Facebook et autres comptes Twitter directement dans l’interface Social CRM (SCRM), les entreprises s’adaptent aux nouveaux moyens de communication des clients. La gestion des commentaires, l’échange avec un support pour créer un véritable standard en action derrière un la page ou le profil social d’une marque, ou bien la mise en place de jeux concours sont parmi les possibilités offerte par les outils SCRM. »

Titre : Social media intelligence : une arme stratégique pour votre marque Site : Mandalana Auteur : Thibaud Clément Extrait : « La social media intelligence peut être définie comme une application des principes de la business intelligence au web social. Cela consiste à identifier les sources d’informations 2.0 pertinentes pour la marque, puis à collecter, stocker et normaliser ces données, pour finalement les traduire en KPIs exploitables. Autrement dit, la social media intelligence transforme le bruit (big data) en signaux (insights) et constitue à ce titre un véritable outil d’aide à la décision.(...) Enfin, la social media intelligence peut être considérée comme un focus groupe de grande envergure, au sein duquel de nouvelles opportunités peuvent apparaître. Un besoin non identifié par votre entreprise. Un segment non adressé par votre offre. Une idée non exploitée par votre organisation. Autant de données fournies spontanément — et donc potentiellement avec moins de biais — par votre industrie, votre audience ou votre cible. Celles-là même que vous tentez de satisfaire. Un insight qui pourra accompagner vos prises de décisions stratégiques. »

Titre : LE SOCIAL MEDIA INTELLIGENCE AU SERVICE DE TOUTE L’ENTREPRISE Site : ActimagAuteur : The social client Paru : 17/09/2015

Extrait : « Pour donner un sens à cette data, des analystes entretiennent l’aspiration de la donnée (pour s’assurer d’obtenir l’exhaustivité du web social sur les sujets suivis). Ils analysent et détectent les signaux forts et faibles pour en faire part à la marque et mettre en place des actions en conséquence. Par exemple, la captation de la donnée permet d’alimenter la stratégie de relation client. En étudiant les motifs d’insatisfaction, une marque va pouvoir mettre en place une stratégie de prise de parole ou de réponse adéquate. Elle peut même aller jusqu’à modifier des produits ou services.

�82

Plus en amont, la data peut permettre de comprendre les sujets qui intéressent une cible en particulier. La marque va alors pouvoir mettre en place des animations ou des dispositifs divers qui correspondent aux attentes de celle-ci. Parmi toute cette donnée, la marque va également pouvoir identifier des cibles et qualifier leurs attentes. Qui sont mes clients fidèles et comment continuer à les satisfaire ? Ou au contraire, qui sont mes détracteurs, qu’attendent-ils de moi, et comment réduire leur insatisfaction ? »

Titre : Données personnelles: Les 5 infractions que la Cnil reproche à Facebook

Site : Frenchweb.frAuteur : Jeanne Dussueil Paru : 09/02/2016

Extrait : «  Facebook enfreindrait près d’une dizaine de texte de lois et accords en cours, dont la loi de 1978 des libertés informatique, et la directive européenne de 1995 relative à la protection des personnes physiques à l’égard des données à caractère personnel et à la libre circulation des données. (...) Si le réseau social refuse de se mettre en conformité, «un rapporteur sera désigné» a n d’établir les sanctions, indique la CNIL. Facebook risque d’une amende. Les nouvelles directives européennes sur la protection des données personnelles prévoient une amende de 4% sur le chiffre d’affaires de l’entreprise. En 2015, Facebook a réalisé un chiffre d’affaires de 17,9 milliards de dollars (nasdaq.com). Son amende pourrait alors atteindre aller jusqu’à 17 millions de dollars. Pas de quoi faire trembler l’ogre des données. »

Titre : Le Big Data au service d’un modèle « customer centric »

Site : Culture RPAuteur : Marc Michiels Paru : 18/01/2016

Extrait : «  Pour les disrupteurs de business model, nul besoin de publicité programmatique pour capter leurs clients car le bouche à oreilles fait son office. Les data leur servent plutôt à mettre en œuvre de nouveaux business-models destinés à rendre la vie du consommateur toujours plus facile comme la géolocalisation de son taxi (Uber) ou la personnalisation d’une offre musicale (Deezer). En effet, les disrupteurs de business model ont parfaitement saisi les évolutions sociologiques qui accompagnaient ces révolutions numériques, à savoir l’empowerment progressif du

�83

consommateur. Ils l’ont tellement bien compris, qu’ils fondent tous leur concept sur l’idée d’accompagner l’individu dans sa quête de « superpouvoirs » : avec airbnb l’individu devient hôtelier, avec Uber il devient taxi, avec waze il devient GPS... Le consommateur nit par occuper toute la chaîne de valeur qui va du producteur au distributeur en passant par le prescripteur et même le nanceur avec le crowdfounding. On peut donc parler d’un consommateur augmenté. Les Airbnb, Blablacar, Deezer, Uber, Waze... se bâtissent tous sur cette vision d’un consommateur devenu « augmenté ». 

Le second secret d’utilisation des data par les disrupteurs de business model est la démarche data-driven. Pour rester connectés à leur marché, ils savent que les data sont aussi une source de connaissance client et de monitoring permanent de leur performance. Cette démarche data-driven, c’est-à-dire éclairée par les données, assure de comprendre les évolutions du digital et d’ancrer les stratégies dans le réel. Menée de manière itérative, elle permet une amélioration continue de la performance du dispositif digital et ainsi, de maintenir leurs avantages compétitifs. »

Titre : Le data marketing : efficace mais inquiétant

Site : Siecle DigitaleAuteur : Baptiste Moisan Paru : 25/11/2015

Extrait : « Alors même que les consommateurs préfèrent recevoir des offres ciblées, ces derniers ne sont pas toujours prêts à fournir leurs données personnelles. Elles sont pourtant indispensables à la personnalisation de l’expérience. Selon une étude d’Adobe et de PageFair, la peur de voir ses données personnelles mal exploitées est la première raison de l’utilisation de bloqueurs de publicité. L’étude d’Accenture révèle que seulement 14 % des internautes sont prêts à livrer leur historique de navigation. 90 % aimeraient limiter l’accès à certaines de leurs données et aimeraient ne pas les voir revendues à des tiers. 88 % aimeraient déterminer comment leurs données sont utilisées. »

�84

Titre : L’inquiétant n’est pas le Big data, c’est qui l’utilise et comment

Site : Le MondeAuteur : Hubert Guillaud Paru : 31/10/2015

Extrait : « Pourtant, explique encore l’anthropologue, l’enjeu n’est pas de rejeter le Big data. Au contraire, explique celle qui est au conseil d’administration de Crisis Text Line, un service de prévention du suicide par SMS (voir notre article «De la prévention du suicide en ligne») permettant via le Big data de traiter des millions de messages pour personnaliser chaque réponse de conseillers à l’adolescence en danger. Or, Crisis Text Line utilise les mêmes techniques que celles utilisées par le marketing ou la police prédictive. Le problème explique- t-elle est que «la surveillance par des acteurs puissants ne peut pas instaurer la confiance. Elle l’érode.» L’information sur les gens qui s’apprêtent à commettre un délit n’est pas la même selon qu’elle est envoyée à la police ou à un travailleur social. «Ce ne sont pas tant les données qui sont inquiétantes, mais c’est la façon dont elles sont utilisées. Et par qui». «Savoir comment utiliser les données n’est pas si facile». Eric Horvitz, un collègue de Danah Boyd chez Microsoft Research, est capable de prédire avec une précision surprenante si quelqu’un va être hospitalisé en fonction de ce qu’il recherche en ligne. «Que doit-il faire de cette information ?» L’important n’est pas tant la qualité de nos prédictions, mais de trouver comment les utiliser. Or, «comment les utiliser est un problème social et culturel complexe que la technologie ne résout pas pour nous. Pire, la technologie rend plus difficile d’avoir une conversation raisonnée sur le pouvoir, la dignité, la responsabilité et l’éthique ». »