PROGRAMME BIG DATA 2015 - Palais des Congrès · De la compréhension à l’action: les défis et...

14
PROGRAMME BIG DATA 2015 MARDI 10 MARS Amphitéâtre GOETHE Animateur: Yann SERRA- Journaliste 9H00- DISCOURS D’OUVERTURE Speaker: Axelle Lemaire- Secrétaire d’Etat au Numérique- MINISTERE DE L’ECONOMIE, DE L’INDUSTRIE ET DU NUMERIQUE 9H30- 10H15- MAÎTRE DE LA DONNÉE, MAÎTRE DU MONDE •Pourquoi la donnée représente-t-elle un intérêt stratégique voire géopolitique? •Comment se faire une place parmi les GAFA (Google, Apple, Facebook, Amazon)? Speakers: -Gilles Babinet- Digital Champion et cofondateur de Captain Dash- COMMISSION EUROPEENNE -Stephane Grumbach- Directeur de recherche- INRIA -Philippe Nieuwbourg- Analyste indépendant 10h15-10h30- KEYNOTE Speakers: Paul Hermelin- PDG- Capgemini 10H30- PAUSE 11H00- 11H20- KEYNOTE Speaker: Bernard Ourghanlian- Directeur technique et sécurité- MICROSOFT 11H20- 12H00- TABLE RONDE OBJETS CONNECTÉS: DU MTOM AUX WEARABLE DEVICES, EN QUOI LES OBJETS CONNECTÉS RÉVOLUTIONNENT LE BIG DATA? •Objets connectés et Big Data, pour l'individu/ pour l'entreprise : outils, intérêts, fonctionnement •Les startups qui émergent: en quoi la France joue-t-elle un rôle important? Speakers: -Pascal Brosset- SVP Innovation and CTO- SCHNEIDER ELECTRIC -Thomas SERVAL- Cofondateur- KOLIBREE -Jean-Pierre DUMOULIN- CTO- PSA -Hugues SEVERAC –VP innovation France – AVIVA -Mathias Herberts- Cofondateur -CITYZEN DATA

Transcript of PROGRAMME BIG DATA 2015 - Palais des Congrès · De la compréhension à l’action: les défis et...

   

 

PROGRAMME BIG DATA 2015  

MARDI 10 MARS Amphitéâtre GOETHE Animateur: Yann SERRA- Journaliste 9H00- DISCOURS D’OUVERTURE Speaker: Axelle Lemaire- Secrétaire d’Etat au Numérique- MINISTERE DE L’ECONOMIE, DE L’INDUSTRIE ET DU NUMERIQUE

9H30- 10H15- MAÎTRE DE LA DONNÉE, MAÎTRE DU MONDE •Pourquoi la donnée représente-t-elle un intérêt stratégique voire géopolitique? •Comment se faire une place parmi les GAFA (Google, Apple, Facebook, Amazon)? Speakers: -Gilles Babinet- Digital Champion et cofondateur de Captain Dash- COMMISSION EUROPEENNE -Stephane Grumbach- Directeur de recherche- INRIA -Philippe Nieuwbourg- Analyste indépendant

10h15-10h30- KEYNOTE Speakers: Paul Hermelin- PDG- Capgemini

10H30- PAUSE 11H00- 11H20- KEYNOTE Speaker:

Bernard Ourghanlian- Directeur technique et sécurité- MICROSOFT 11H20- 12H00- TABLE RONDE OBJETS CONNECTÉS: DU MTOM AUX WEARABLE DEVICES, EN QUOI LES OBJETS CONNECTÉS RÉVOLUTIONNENT LE BIG DATA? •Objets connectés et Big Data, pour l'individu/ pour l'entreprise : outils, intérêts, fonctionnement •Les startups qui émergent: en quoi la France joue-t-elle un rôle important? Speakers: -Pascal Brosset- SVP Innovation and CTO- SCHNEIDER ELECTRIC -Thomas SERVAL- Cofondateur- KOLIBREE -Jean-Pierre DUMOULIN- CTO- PSA -Hugues SEVERAC –VP innovation France – AVIVA -Mathias Herberts- Cofondateur -CITYZEN DATA

   

 

12H00- 12H30- DISCOURS DE CLÔTURE DE LA MATINEE Impact sociologique des objets connectés: l'homme augmenté, version 2.0 de l'humanité? Speaker: Eric Sadin- Ecrivain- Philosophe Amphitéâtre GOETHE Animateur: Yann SERRA- journaliste 14H00-14H20 A new strategy: Delivering Asset Management Solutions to our clients Speaker : Eddy Vermeire – CEO - iSDC 14H20-14H40 Big Data or Big Change Management ? Au-delà de la rupture et du challenge technologique, le big data est aussi une rupture dans les méthodes, l’organisation et les rôles en particulier coté IT. Au travers de ce retour d’expérience, vous pourrez appréhender l’ampleur et la nature des changements auxquels l’équipe du projet Big Data SFR a dû faire face et comment ce projet a profondément changé les équipes.

Speaker: François NGUYEN- Directeur du SI connaissance client & corporate - SFR

14H40-15H00 Adoption Big Data : Lean Startup, Horizon Planning. Rudiments de « VUCAnologie » Un paradigme compris: depuis quelques années le Big Data a généré beaucoup d’interrogations et suscité de la curiosité. Au-delà des nécessaires prises de conscience, compréhension des enjeux et des défis, reste le challenge de la mise en application. Pour répondre à cet impératif de concrétisation des promesses du Big Data, il devient nécessaire de produire rapidement des expériences correspondant aux attentes des clients internes ou externes. Les résultats obtenus permettront d’orienter votre activité à leur service. De la compréhension à l’action: les défis et enjeux fréquemment rappelés du Big Data adressent des éléments de compétitivité tels que: • la performance des opérations • la génération de nouveaux revenus et économies • la transformation d’un passif en actif • une plus grande « personnalisation» des produits et services Les complications et frictions reconnues nous rappellent le phénomène de « silo-isation » des processus, des organisations et des données. Certains y verront des opportunités, d’autres leur

   

 

Némésis ; autant de changements qui apportent leur lots de défis à toute l’entreprise. Le groupe Neopost a déjà négocié nombre de virages industriels depuis sa création 1924 et il aborde celui du Big Data de façon réaliste, effective et surtout extrêmement véloce, en s’appuyant sur l’esprit « Lean Startup ». « Si vous voulez des réponses, arrêtez de poser des questions » et définissez vos uniques pratiques. Une première approche chez Neopost qui a consisté à décliner et appliquer avec succès les éléments suivants :

• Changer la perception du « VUCA », ou transformer la Volatilité, l’Incertitude, la Complexité et l’Ambiguïté en zones de confort • Expliquer et démystifier la peur du changement • Comprendre l’échelle de maturité Big Data et où l’on se situe • Structurer, comprendre et protéger l’organisation et les opérations suivant la règle des 3 Horizons • Construire son « Data Lake » Hadoop et produire de la valeur • Agir massivement et rapidement • Mettre en œuvre une validation systémique par la clientèle, via l’approche « Lean Startup »

L’objectif de cette présentation est d’illustrer cette approche au moyen de cas concrets et de présenter les bases pour une mise en œuvre dans tous types de contexte. Speaker: Hugues LE BARS- Chief Data Officer- NEOPOST

    15H00-15H20 - La transformation digitale du Stade toulousain Connu pour sa prestigieuse équipe de rugby, multiple championne de France et quadruple championne d’Europe, le Stade Toulousain est aussi une PME qui gère de nombreuses activités – billetterie, abonnements, boutiques, restaurant … –, et pour laquelle la relation avec les supporters est particulièrement stratégique.

Depuis plus d’un an, TIBCO Software accompagne le Stade Toulousain dans sa transformation digitale visant à exploiter tout le potentiel des données et des informations générées par ses activités commerciales.

Les solutions TIBCO d'intégration, d’event processing et d’analytics apportent au Stade Toulousain une vision multicanal de ses points de ventes ainsi qu’une approche 360° de ses supporters, lui permettant d'interagir avec eux en fonction de leur expérience. Les objectifs sont un accroissement des ventes des produits dérivés et de la billetterie, le développement de la notoriété, des sponsors, la génération de nouveaux services ou encore une gestion plus efficace des fournisseurs.

TIBCO, partenaires stratégique du Stade Toulousain dans sa politique de développement visant à devenir la marque référence du rugby. Speakers: -Vincent Bonnet, Directeur du développement, Le Stade Toulousain -Christian Duprat, Directeur TIBCO Software France

   

 

15H20-15H40 Ciblage et personalisation : Cas Client FNAC Les méthodes traditionnelles de ciblage s’appuient souvent sur des logiques de retargeting : si j’ai acheté un jeu vidéo, ou si j’ai consulté la fiche produit d’un jeu vidéo, alors j’appartiendrai au segment « appétents jeu vidéo » et je recevrai les offres associées. Cette approche a ses mérites mais reste techniquement complexe (devoir créer et maintenir de nombreux segments) et limitée (règles rigides et parfois simplistes.) Pour dépasser ces méthodes traditionnelles et optimiser le ciblage de ses newsletters, FNAC a souhaité tester l’approche « predictive big data » proposée par tinyclues. Il s’agit de remplacer les règles de segmentation rigides par des algorithmes de machine-learning qui tirent profit de toute l’information disponible, détectent des corrélations cachées et calculent automatiquement les bonnes cibles. Un impact spectaculaire sur la performance a été mesuré dès les premières semaines de la collaboration. La solution tinyclues permet ainsi à FNAC de :

• créer des cibles à la volée, en fonction du contenu exact de chaque message (par exemple, tous les jeux vidéos ne se ressemblent pas),

• capturer les tendances et phénomènes saisonniers (l’achat de jeux vidéos avant Noël ne suit pas la même logique que pendant l’été),

• tirer profit de toute l’information implicite (même si je n’ai pas encore manifesté mon intérêt pour le jeu vidéo, mon comportement passé pourrait le laisser supposer.)

Simple à mettre en œuvre, cet exemple concret de big data prédictif se traduit par des bénéfices économiques immédiats (plusieurs dizaines de points de revenu incrémental sur le canal CRM) et par une meilleure expérience client (baisse du désabonnement.) Speakers:

- David Bessis - Président de tinyclues et ancien chercheur en mathématique au CNRS - Camille BERLAND- Responsable Marketing CRM Digital- FNAC

15H40-16H10 PAUSE 16H10-16H30 La relation client chez LA POSTE MOBILE Dans le cadre du lancement de son offre grand public, La Poste Mobile devait gérer les souscriptions des abonnements téléphoniques dans l’ensemble de ses bureaux de poste. Puis aider ses collaborateurs à développer une relation de proximité efficace avec ses clients. EXALEAD OneCall a permis à La Poste Mobile de développer une vue 360 à partir de référentiels complexes pour interagir avec ses abonnés. Speaker: Olivier Renard- DSI -La Poste Mobile.

16H30 - 16H50

Big Data Analytics en entreprise : exemples concrets de création de valeur dans un marché en forte evolution

   

 

Sinequa et Atos, son client et partenaire, présentent ensemble des projets déployés chez leurs clients qui représentent de nouveaux usages à très forte valeur ajoutée des technologies de Search et d’analyse. Quand il s’agit de découvrir des réseaux d’experts en analysant 200 millions de documents et des milliards d’enregistrements de bases de données, ou de créer une vue à 360° d’un client à partir de dizaines d’applications d’entreprise contenant les données de plus de 20 millions de clients, les défis sont de taille. Pourtant, ces entreprises ont prouvé que leurs projets dégageaient des ROI atteignant plusieurs dizaines de millions d’euros. Speakers: Fabrice de Salaberry- Directeur Général- SINEQUA Daniel LE COGUIC-Senior Vice President - Head of Big Data and Security- France & IMEA-ATOS

16H50 - 17H10 Data2Business : la démarche de valorisation de la Data pour améliorer la performance de ses clients » Comment transformer le « big data » en « smart data » ? Au-delà des innovations technologiques, le Big Data doit maintenant démontrer la Valeur (le 5ème « V »…) qu’elle apporte au sein des entreprises et institutions, en s’appuyant sur la véracité (le 4ème « V »). Son exploitation peut s’articuler autour de 3 axes : l’optimisation de processus métiers, la transformation digitale, l’innovation par de nouveaux modèles économiques. Une démarche structurée et agile est la clé du succès d’un projet « data driven ». Elle s’appuie sur une approche collaborative et itérative créant les conditions d’un dialogue entre les acteurs et les données. Outre le cadrage du projet, les enjeux sont d’anticiper les risques, réduire les délais et d’évaluer les impacts opérationnels et stratégiques. Altares et Viseo collaborent sur des projets « data driven » depuis plusieurs années. Ils présenteront leur vision et leurs bonnes pratiques de valorisation de la donnée issus de cas concrets réalisés en commun.

Speakers: - Frédérick Vautrain, directeur data science chez Viseo -Yohan Benqué, Head of Business Development - Altares Dun and Bradstreet

17H10- 17H30 Photobox Big Data : du batch au temps reel Comment Photobox, leader européen du stockage, du partage et du tirage de photos en ligne, a su tirer parti des

solutions AWS pour optimiser ses analyses en batch et mettre en place une solution de CRM temps réel. Speaker : Maxime Mezin- Group Data & Photo Science Director- Photobox

17H30- 17H50 Le Text Mining au service de la connaissance client GRANDVISION s'appuie sur l'analyse du web social pour optimiser le parcours client

   

 

Grandvision, numéro 2 mondial de l'optique, présent en France avec les enseignes Grand Optical et Générale d'Optique, mise fortement sur la digitalisation du parcours client (achat en ligne, click & collect). Le groupe est déjà très en avance sur le sujet de la connaissance client, et souhaitait approfondir sa compréhension du parcours d'achat, tel qu'il est vécu par le client. Grandvision a donc fait appel à Dictanova, spécialiste de la voix du client, pour centraliser et analyser les discussions web autour de l'achat de produits d'optique (lentilles, lunettes). Leviers d'action, pistes d'enchantement, signaux faibles : retour d'expérience. Speakers: -Pierre-Marie DESBAZEILLE- Directeur CRM & Digital- GRANDVISION (Grand Optical / Générale d'optique) -Sylvain Ornetti, Data Analyst, Dictanova

17H50- 18H10 Tableau et Criteo : Le pouvoir des données et de la technologie Speaker: Fabien LESAGE -BI Analyst – CRITEO Salle DARWIN PARCOURS EXPERT Animateur: José DIZ- journaliste 14H00 - 14H40 KEYNOTE INTEL: Restructurer son Datacenter pour répondre aux besoins métiers en terme de Big Data Speaker: Richard MASON- Marketing Analytics Product Owner –INTEL 14H40 - 15H20 Hadoop 2 +: point d'étape In-memory, temps réel, streaming… Hadoop 2 affiche de nombreuses promesses. Dans ce tourbillon, un point sur les principaux projets s'impose. Etat des lieux et dernières évolutions : sécurité, administration, intégration, performances...

Speaker: Cédric Carbone-Co-fondateur- HUG France 15H20- 16H00 Business Data Lake: pour quoi faire et jusqu'où ? Que recouvre le concept d'Enterprise DataHub d'Hadoop ? Comment s'articule une stratégie Big Data basée sur ce data lake ? Peut-il devenir le référentiel central, voire unique du système d'information pour le décisionnel ? Pour le transactionnel? Intérêts et inconvénients. Les services de données disponibles sont-ils assez performants et efficaces ?

Speaker: Nicolas Maillard - Ingénieur Solution- Hortonworks

   

 

16H00- 16H30 Table ronde: Intégrer seul l'open source ou passer par un éditeur ? Avantages et limites des deux modèles. Suivi, maintenance, dépendances et indépendance des deux options.

Speakers: - Max Brudey, Enterprise Manager –Hortonworks - Romain Picard - Regional Director SEMEA – Cloudera - Xavier Guérin, responsable Business Development, Partners & Alliances EMEA chez MapR  

16H30- 16H50 PAUSE 16H50- 17H20 Objectif et contexte business : piliers du traitement efficace des données Activer la donnée de manière pertinente est à la croisée de plusieurs problématiques. Si les technologies et les outils d'apprentissage sont en passe de devenir des commodités, la compréhension du contexte de collecte et d'usage des données reste critique pour la réussite des projets. Découvrez notre approche avec Rank qui combine les signaux de webanalyse, les données-métier et les objectifs métier pour augmenter les taux d'ajout au panier de 15% en moyenne.

Speakers: - Jean François Wassong, CTO, FIFTY-FIVE - Khalid Mehl, Data Scientist, FIFTY-FIVE

17H20- 17h50 Témoignage utilisateur : Solocal Group (ex PagesJaunes) Une application Big Data produisant des tableaux de bord en temps réel pour le suivi des ventes, avec graphismes évolués pour les décideurs commerciaux et les dirigeants Une application Big Data maniant des centaines de téraoctets, basée sur des applications internes, et les logs d'audience de pagesjaunes.fr et de Google (partenariat) pour détecter les prospects B2B.

Speaker: Abed AJRAOU- Head of Business Intelligence - SOLOCAL GROUP (Pages Jaunes Groupe)

17H50 – 18H10 Big Data: Plateforme hybride, Equipe hybride Entre Business Intelligence traditionnelle et approches “Big Data”, de nombreuses entreprises doivent composer en mode hybride. Dans quelle mesure et de quelle manière peut-on faire collaborer les profils métier et techniques sur une même plateforme ?

Speaker: Florian Douetteau –CEO - Dataiku

   

 

MERCREDI 11 MARS Amphitéâtre GOETHE Animateur: Yann SERRA- Journaliste 9H00- 9H20 DISCOURS D’OUVERTURE- MARKLOGIC Speaker: Ken Krupa - Enterprise CTO - MarkLogic 9H20- 10H15 - MAITRISER LES DONNEES DE L’ENTREPRISE • Les données comme richesse principale de l'entreprise? • Pourquoi et comment les protéger? • Pourquoi les exploiter est devenu indispensable Speakers:

-François BOURDONCLE- Cofondateur Exalead Dassault Systèmes- et Président-FB&CIE -Elias BALTASSIS- Directeur big data & analytics- BCG -Regis Delayat- DSI et administrateur du CIGREF- SCOR 10H15- 10h40- REGLEMENTATION: quelles sont les nouveautés au niveau européen et français? Speakers:

-Stéphane Gregoire- Chef du service des affaires économiques- CNIL -Thierry Dor- Avocat Associé- En charge du droit de l'informatique et des nouvelles technologies - GIDE

LOYRETTE 10h40- 11H00 - PAUSE 11h00- 11h40 - TABLE RONDE: Le Big Data en entreprise: comment dépasser les obstacles? -Ressources humaines -Ressources financières -Plannification et organisation -POC VS projets transversaux: comment aborder ses premiers pas dans le Big Data? Speakers:

-Justin Ziegler- DSI- PRICEMINISTER -Georges Epinette- DSI- LES MOUSQUETAIRES -David Naim- Associé- Responsable du pôle Stratégie, Marketing et Innovation- ERNST & YOUNG -Joannes Vermorel- Enseignant à l'École normale supérieure de Paris et PDG- LOKAD -Stéphan Clémençon- - Responsable mastère spécialisé Big Data- TELECOM PARISTECH -Yves Denneulin –Directeur – ENSIMAG

   

 

11h40- 12H00- KEYNOTE - Pax Data The past few decades have delivered us incredible technical capabilities. Today we can profit from the vast quantities of data that our businesses generate. Yet these new capabilities create risks. Data can be abused. As a society, we now begin the process of deciding how we control this new power. The policies we develop in the next few years will set the stage for the coming century. This presentation will discuss how we might both reap the benefits of data while avoiding its perils. Speaker: Doug Cutting- Hadoop cofounder- Chief Architect- CLOUDERA

12H00-12H20 KEYNOTE HP- Big Data: Asset & Liabilities Data is an organization’s most strategic asset … and it’s greatest risk Every organization today faces the Big Data flow. Whether the data is onsite or offsite, whether it’s on premise or in the cloud, whether it’s social/unstructured data or machine data or sensor data, it has to be stored, explored, governed, protected and ultimately served for business requirements. Today, data is an organization’s most strategic asset. There is a major opportunity for all organizations to monetize through disruptive business models and differentiated products and services, driven by personalized customer interactions and sentiment analysis, smart metering and sensor analytics, network optimization and predictive maintenance and more. But data is also an organization’s greatest risk. Monetization must be balanced by the need to meet regulatory and compliance requirements, control costs, manage security concerns, address legal obligations and ensure business resiliency. Through examples, see how to manage the “Big Data Balance Sheet” by maximizing the assets while controlling the liabilities. Speaker: Colin Mahony- SVP and General Manager- HP SOFTWARE BIG DATA

12h20- Remise des TROPHEES de L’innovation Big Data Paris 2015 Avec ATOS et le JDN Speakers: -Steve Peguet- Directeur Innovation France- ATOS -Jérôme SANDRINI- Vice-Président, responsable des opérations globales Big Data- ATOS -Antoine CROCHET-DAMAIS- Journaliste- JDN Amphitéâtre GOETHE Animateur: Yann SERRA- Journaliste 14H00- 14H20 KEYNOTE SAP Internet des objets, Big data… Ou la 4eme revolution industrielle : challenge ou opportunité ? Avec « l’Internet of People », l’utilisation exponentielle des réseaux et médias sociaux a donné tout son sens au Big Data.

   

 

Ainsi, avons-nous vu se développer depuis la toile de nouveaux mode de consommation et donc de prospection pour contenter des clients de plus en plus exigeants. Avec « l’Internet of Things », qui accompagne le developpement de nouveaux usages et services, nous rentrons dans une nouvelle ere, la 4 eme revolution industrielle. En effet, avec le nombre croissants d’appareils connectés et celui des capteurs installes a hauteur des chaines de production ou des biens de consommation, de nouvelles opportunités se présentent … mais encore faut-il savoir les appréhender et les gérer. Dans cette période de transformation des métiers, des services, des modèles économiques, des relations B2B2C, les DSI ont un challenge, celui de veiller à la prise en compte des impacts de ces changements au niveau des processus et du SI, clé de voute du bon fonctionnement de leurs organisations. Comment se transformer pour appréhender le sujet de la transformation digitale? Au cours des quatre dernières décennies, SAP a développé une expertise applicative, industrielle et technologique pour mieux servir son core business, l’ERP, ainsi que tous les systèmes périphériques. SAP ne cesse de compléter son offre et son ecosysteme avec la volonte de supporter les DSI dans l’évolution de leur Système d Information pour répondre aux enjeux de l’innovation. Speaker: Marc GENEVOIS, directeur des operations, SAP FRANCE

14H20- 14H40 Assurances Le BIG DATA, un catalyseur de la transformation digitale de COVEA La transformation digitale au sein de COVEA est portée par un unique programme à l’échelle du Groupe. Le Big Data constitue un pilier important de ce programme car la maîtrise de l’information est un enjeu clé du digital pour l’assurance : connaissance du client, de son environnement, des risques particuliers auxquels il est confronté; capacité à détecter et même anticiper ses attentes ; faculté à lui délivrer rapidement le bon conseil, les bons services, les bonnes prestations… L’intervention abordera:

• La phase exploratoire, constituée d’expérimentations menées en commun entre la DSI et différents métiers,

• La phase de validation du passage à l’échelle industrielle, pensée et pilotée comme un premier pas vers l’Architecture 3.0 (Modèle Data Centric),

• La mise en œuvre du socle transverse, qui va servir de nombreux projets dès 2015. Speakers: -Guillaume LEMELE-directeur des pôles logiciels du SI MMA- COVEA -Sebastien LAYER- Architecte Senior- SENTELIS -Jean-Baptiste CECCALDI- Président- SENTELIS

14H40- 15H00 Operational Analytics & Internet of Things - the next frontier? Speaker: Erick Brethenoux - Director of Business Analytics & Decision Management Strategy – IBM

   

 

15H00- 15H20 Comment le Big Data a gagné l’America’s Cup ? Les solutions Oracle Big Data au service de la performance sportive. Speaker: Philippe Presti, navigateur, coach d’Oracle Team USA 35e America’s Cup

  15H20- 15H40 Le projet SINAPSE de EDF R&D Le projet SINAPSE de EDF R&D a pour objectif de proposer des solutions de type Data Analytics aux différentes entités du groupe EDF. Dans ce cadre, il étudie notamment des solutions de stockage et d'analyse du réseau électrique. La base de graphe Neo4j est l'une des solutions étudiées par EDF R&D ; Neo4j propose en effet une solution pour stocker une topologie de réseau nativement sous forme de graphe, puis analyser et de parcourir ce graphe afin de réaliser des calculs électrique sur le réseau. Speaker: Jérôme FREMONT- Ingénieur Chercheur - EDF R&D

15H40-16H10 PAUSE 16H10 -16H30 Projet REMiND (Risk Evaluation through Machine-learning in Nuclear Decommissioning)  L’objectif de REMiND est :

• de participer à la formalisation et à la structuration de la filière du démantèlement des installations nucléaire, dont les enjeux économiques se chiffrent en Europe seule, à plus de 200Md€ et pour lesquels les acteurs du démantèlement estiment que les 40% de surcoûts dus à une identification imparfaite des risques pourtant signalés dans les masses de données peuvent être divisé par deux ;

• d'être une source de Retour d’EXpèrience à fort potentiel d’amélioration des phases amonts (conception/fabrication/exploitation) participant au maintien de l’excellence industrielle française ;

• et de constituer un acquis déployable vers d’autres filières de démantèlement, tel le maritime, filière estimée représenter 5Md€/an dès 2020.

REMiND permettra de faire profiter la filière nucléaire d’importants travaux de recherche en Text Mining & Machine Learning sur des technologies très peu appliquées dans le domaine du démantèlement d’installations industrielles, ainsi qu’un champ d’expérimentation et de réglage d’outils (Massivement parallèle et in-memory) très nouveaux. Speakers: -Pierre Delort - Président ANDSI et enseignant- Mines-ParisTech -Vincent Guigue - Maitre de conférences-UPMC

16H30- 16H50 Cas client RTE : Enjeux et développements du big-data pour le gestionnaire du réseau de transport d’électricité

   

 

Speaker : Nicolas OMONT - Ingénieur R&D - RTE France 16H50- 17H10 Cassandra chez Chronopost pour traiter 1,5 milliard d’évènements par an Speaker: Alexander Dejanovski- Ingénieur Expert EAI- Chronopost 17H10- 17H30 Big Data, épidémiologie et Nutrition : exemple du métagénome La métagénomique est une nouvelle discipline scientifique qui permet l'exploration du microbiote intestinal humain, aujourd'hui celui-ci est décrit comme un nouvel organe associé notamment à des maladies inflammatoires et à la nutrition. Cette exploration s'accompagne d'un déluge de données que nécessite une approche épidémiologique de l'investigation clinique. Commencée en 2008 à l'INRA (http://www.metahit.eu), cette exploration 'BigData' a été possible grâce à des développements informatiques pragmatiques. L'exposé présente un témoignage sur l'application réussie de méthodes rationnelles dans le développement applicatif, les évolutions technologiques pour lesquels l'INRA a été contributeur comme par exemple les projet collaboratifs OpenGPU (http://www.opengpu.net/EN) et MACH (http://www.mach-project.eu) et le partenariat industriel établit avec la société ParStream (http://www.parstream.com).

Speaker: Jean-Michel BATTO- Leader technique pour METAGENOPOLIS – INRA 17H30-17H50 Plateforme Big Data + SIG + 3D: comment Network Rail réduit ses coûts en digitalisant son réseau ferré Le projet ORBIS lancé par Network Rail en 2013 consiste à digitaliser son modèle de gestion de son réseau ferré

de façon à réduire significativement les coûts d'exploitation tout en le préparant de la meilleure façon aux 225 millions de voyages prévus chaque année d'ici 2019. En combinant des solutions de type ESRI (Système d'Information Géographique) avec des applications développées sur la plateforme Big Data PaaS de CSC, Network Rail a pu créer son RINM (Rail Infrastructure Network Model) de façon à proposer toutes les informations nécessaires aux ingénieurs pour effectuer des opérations de maintenance plus adaptées. Read more: http://www.theengineer.co.uk/news/model-railway-to-maintain-reliability-and-cut-costs/1019597.article#ixzz3PvHqqcXg  

Speakers: -Eddie Satterly- CTO- CSC -Stephen Dyke - Director - Asset Information (ORBIS) - Network Rail

17H50-18H10

   

 

Analyse imprédictible et interactive de téraoctets de données Comment Amadeus propose à ses utilisateurs une analyse sans contrainte et en temps réel de plusieurs années de

trafic aérien et de données comptables grâce à MongoDB Speakers: -Tugdual Grall, Technical Evangelist,  MongoDB -Laurent Dolle, Manager of Software Development, Amadeus Salle DARWIN PARCOURS EXPERT Animateur: José DIZ- journaliste 14H00- 14H40 La puissance Big Data à la portée de tout développeur Google Dataflow simplifie l’accès à la puissance du Big Data pour les développeurs. A partir de quatre ou cinq lignes de code simples, il est désormais possible d’évoquer de puissantes fonctions Big Data sur des très gros volumes de données. Et cela, sans avoir à se préoccuper des clusters et autres infrastructures complexes Hadoop. Speaker: William Vambenepe - responsable Big Data Services - Google Cloud Platform

14H40- 15H20 Projet Drill : du SQL agile et self-service pour le Big Data Le projet open source pour rendre le SQL interactif en environnement Big Data, avec ou sans de modèles de données prédéterimné ou figés. Speaker: Aurelien Goujet - directeur Technique Avant Vente Europe du Sud - MapR

15H20- 16H00 Hadoop et sécurité… C'est possible Comment déployer une politique de sécurité cohérente en tenant compte des enjeux et des politiques déjà en place ? Au-delà du chiffrement pour le stockage et le transport, il convient parfois de rendre invisibles les données utilisées dans des processus décisionnels (ou transactionnels) en environnement Big Data. Speaker: Nicolas Maillard - Ingénieur Solutions- Hortonworks

16H00- 16h30 Table ronde : Compétences et Big Data  Quels apprentissages et compétences doivent compléter les connaissances des informaticiens en charge des données? Le data scientist : mouton à cinq pattes ou équipe pluridisciplinaire? Prestation ou recrutement ? Et pour quels profils ?  Speakers:

   

 

-Fabrice Marque- directeur de l’activité conseil en vente et service client - Accenture - Ariane Liger-Belair, Directeur académique - Sas - Mathieu Colas, responsable de l'offre Big Data - Capgemini Consulting

16H30- 16H50 - PAUSE 16H50- 17h20 Cloud et Big Data : coûts maîtrisés et déploiements rapides ? Oublier les tracas matériels (fourniture à la volée illimitée), accéder à des environnements Big Data préparamétrés avec injection simple des données… Possibilités et limites du modèle, intégration et performances, administration et export des modèles... Mais attention à maîtriser l'utilisation des ressources et à contrôler les utilisateurs capables de générer inconsciemment des volumes de données considérables en quelques clics.

Speaker: Stephan Hadinger- Manager Solutions Architecture- Amazon Web Services 17h20-17h50 Monétisation des données : Modèles et Exemples  

Avec le Big Data, des informations à forte valeur ajoutée se dévoilent en quasi temps réel. Une capacité ouvrant la porte à de nouveaux modèles économiques reposant sur cette valeur ou sur les possibilités d'interrogation interactive. Une monétisation de l'information favorisée par les technologies d'exposition des fonctions et autres API avec un contrôle évolué de l'usage et des utilisateurs.

Speaker: Julien Cabot- Directeur- Quantmetry 17H50- 18h10 Big Data mais Small App puissante et rapide à concevoir La business intelligence traditionnelle fait souvent écho à des projets longs, laborieux et couteux à mettre en place. Avec les nouvelles infrastructures big data, le temps est venu de la small app analytique qui permet de couvrir un besoin métier avec agilité. Le tryptique métier / dsi / solution se réorganise autour de cycles courts où la finalité est la production d'une application de datavisualisation simple et intuitive.

Speaker: Charles Miglietti -co-fondateur et Président -Toucan Toco