DATA SCIENCE - OCTO Academy · Statisticien Architecte Développeur Data scientist ... INTRODUCTION...

90
BIG DATA DATA SCIENCE Programme domaine Date de téléchargement : 15/09/2018 1

Transcript of DATA SCIENCE - OCTO Academy · Statisticien Architecte Développeur Data scientist ... INTRODUCTION...

Page 1: DATA SCIENCE - OCTO Academy · Statisticien Architecte Développeur Data scientist ... INTRODUCTION AU TEXT MINING • Un modèle de représentation : le bag of words ... Choisir

BIG DATA

DATA SCIENCE

Programme domaineDate de téléchargement : 15/09/2018

1

Page 2: DATA SCIENCE - OCTO Academy · Statisticien Architecte Développeur Data scientist ... INTRODUCTION AU TEXT MINING • Un modèle de représentation : le bag of words ... Choisir

BEST Fondamentaux de la Data Science

Stage pratique en présentiel

DATA SCIENCE

Code :

DSFDX

Durée :

3 jours (21 heures)

Exposés :

60%

Cas pratiques :

30%

Échanges d'expérience :

10%

Sessions à venir :

19 - 21 sept. 2018

Paris / 2 350 eur

24 - 26 sept. 2018

Genève / 2 700 chf

5 - 7 déc. 2018

Paris / 2 350 eur

Tarif & dates intra :

Sur demande

DESCRIPTION

Surfant sur la vague du Big Data, le data scientist joue un rôle clé dans la

valorisation de données. Au-delà des paillettes, quel est son rôle, ses outils,

sa méthodologie, ses "tips and tricks" ? Venez le découvrir au travers de

cette initiation à la Data Science délivrée par des data scientists renommés qui

vous apporteront l’expérience des compétitions de Data Science et leurs

riches retours d’expérience des modèles réels qu’ils mettent en place chez

leurs clients.

OBJECTIFS PÉDAGOGIQUES

Découvrir le monde de la Data Science et les grandes familles de problèmes

Savoir modéliser un problème de Data Science

Créer ses premières variables

Constituer sa boite à outils de data scientist

PUBLIC CIBLE

Analyste

Statisticien

Architecte

Développeur

PRÉ-REQUIS

• Connaissances de base en programmation ou scripting.

• Quelques souvenirs de statistiques sont un plus.

MÉTHODE PÉDAGOGIQUE

Formation avec apports théoriques, échanges sur les contextes des

participants et retours d’expérience pratique du formateur, complétés de

travaux pratiques et de mises en situation.

PROFILS DES INTERVENANTS

Toutes nos formations sont animées par des consultants-formateurs

expérimentés et reconnus par leurs pairs.

MODALITÉS D'ÉVALUATION ET FORMALISATION À L'ISSUE DELA FORMATION

L'évaluation des acquis se fait tout au long de la session au travers des

ateliers et des mises en pratique. Une évaluation à chaud sur la satisfaction

des stagiaires est réalisée systématiquement en fin de session et une

attestation de formation est délivrée aux participants mentionnant les objectifs

de la formation, la nature, le programme et la durée de l'action de formation

ainsi que la formalisation des acquis.

POUR ALLER PLUS LOIN :

• Formation "Data Science : niveau avancé" (DSNVA)

• Ouvrage "Data Science : Fondamentaux et études de cas" - Eric Biernat,

Michel Lutz

Programme domaine "BIG DATA"Date de téléchargement : 15/09/2018

2

Page 3: DATA SCIENCE - OCTO Academy · Statisticien Architecte Développeur Data scientist ... INTRODUCTION AU TEXT MINING • Un modèle de représentation : le bag of words ... Choisir

• Ouvrage "The Elements of Statistical Learning: Data Mining, Inference, and

Prediction" - Hastie, Tibshirani, Friedman

• Toutes nos formations Data Science

• Nos formations Hadoop

• Nos formations NoSQL

Programme domaine "BIG DATA"Date de téléchargement : 15/09/2018

3

Page 4: DATA SCIENCE - OCTO Academy · Statisticien Architecte Développeur Data scientist ... INTRODUCTION AU TEXT MINING • Un modèle de représentation : le bag of words ... Choisir

Programme pédagogique détaillé par journée

Jour 1

INTRODUCTION AU BIG DATA

• Qu’est-ce-que le Big Data ?• L’écosystème technologique du Big Data

INTRODUCTION À LA DATA SCIENCE

• Le vocabulaire d’un problème de Data Science• De l’analyse statistique au machine learning• Overview des possibilités du machine learning

MODÉLISATION D’UN PROBLÈME

• Input / ouput d’un problème de machine learning• Mise en pratique "OCR"

- Nous verrons comment modéliser le problème de la reconnaissance optique de caractère

IDENTIFIER LES FAMILLES D’ALGORITHMES DE MACHINE LEARNING

• Analyse supervisée• Analyse non supervisée• Classification / régression

SOUS LE CAPOT DES ALGORITHMES : LA RÉGRESSION LINÉAIRE

• Quelques rappels : fonction hypothèse, fonction convexe, optimisation• La construction de la fonction de coût• Méthode de minimisation : la descente de gradient

SOUS LE CAPOT DES ALGORITHMES : LA RÉGRESSION LOGISTIQUE

• Frontière de décision• La construction d’une fonction de coût convexe pour la classification

LA BOITE À OUTIL DU DATA SCIENTIST

• Introduction aux outils• Introduction à python, pandas et scikit-learn

CAS PRATIQUE N°1 : "PRÉDIRE LES SURVIVANTS DU TITANIC"

• Exposé du problème• Première manipulation en python

Jour 2

RAPPELS ET RÉVISION DU JOUR 1

QU’EST-CE QU’UN BON MODÈLE ?

• Cross-validation

Programme domaine "BIG DATA"Date de téléchargement : 15/09/2018

4

Page 5: DATA SCIENCE - OCTO Academy · Statisticien Architecte Développeur Data scientist ... INTRODUCTION AU TEXT MINING • Un modèle de représentation : le bag of words ... Choisir

• Les métriques d’évaluation : precision, recall, ROC, MAPE, etc.

LES PIÈGES DU MACHINE LEARNING

• Overfitting ou sur-apprentissage• Biais vs variance• La régularisation : régression Ridge et Lasso

DATA CLEANING

• Les types de données : catégorielles, continues, ordonnées, temporelles• Détection des outliers statistiques, des valeurs aberrantes• Stratégie pour les valeurs manquantes• Mise en pratique : "Remplissage des valeurs manquantes"

FEATURE ENGINEERING

• Stratégies pour les variables non continues• Détecter et créer des variables discriminantes

CAS PRATIQUE N°2 : "PRÉDIRE LES SURVIVANTS DU TITANIC"

• Identification et création des bonnes variables• Réalisation d’un premier modèle• Soumission sur Kaggle

DATA VISUALISATION

• La visualisation pour comprendre les données : histogramme, scatter plot, etc.• La visualisation pour comprendre les algorithmes : train / test loss, feature importance, etc.

INTRODUCTION AUX MÉTHODES ENSEMBLISTES

• Le modèle de base : l’arbre de décision, ses avantages et ses limites• Présentation des différentes stratégies ensemblistes : bagging, boosting, etc.• Mise en pratique : "Retour sur le titanic"

- Utilisation d’une méthode ensembliste sur la base du précédent modèle

APPRENTISSAGE SEMI-SUPERVISÉ

• Les grandes classes d’algorithmes non supervisées : clustering, PCA, etc.• Mise en pratique : "Détection d’anomalies dans les prises de paris"

- Nous verrons comment un algorithme non supervisé permet de détecter des fraudes dans les prisesde paris

Jour 3

RAPPELS ET RÉVISIONS

• Synthèse des points abordés en journées 1 et 2• Approfondissement des sujets sélectionnés avec l’intervenant

MISE EN PRATIQUE

• Le dernier jour est entièrement consacré à des mises en pratique

Programme domaine "BIG DATA"Date de téléchargement : 15/09/2018

5

Page 6: DATA SCIENCE - OCTO Academy · Statisticien Architecte Développeur Data scientist ... INTRODUCTION AU TEXT MINING • Un modèle de représentation : le bag of words ... Choisir

SÉLECTION ET PARTICIPATION À UNE COMPÉTITION

• Le formateur sélectionnera une compétition en cours sur Kaggle ou datascience.net qui sera démarrée enjour 3 par l’ensemble des participants

Programme domaine "BIG DATA"Date de téléchargement : 15/09/2018

6

Page 7: DATA SCIENCE - OCTO Academy · Statisticien Architecte Développeur Data scientist ... INTRODUCTION AU TEXT MINING • Un modèle de représentation : le bag of words ... Choisir

BEST Data Science : niveau avancé

Stage pratique en présentiel

DATA SCIENCE

Code :

DSNVA

Durée :

3 jours (21 heures)

Exposés :

50%

Cas pratiques :

40%

Échanges d'expérience :

10%

Sessions à venir :

22 - 24 oct. 2018

Genève / 2 700 chf

28 - 30 nov. 2018

Paris / 2 350 eur

Tarif & dates intra :

Sur demande

DESCRIPTION

Le Big Data et la data science sont en train de changer le monde que nous

connaissons. Avec la digitalisation sans cesse croissante de nos interactions et

les progrès accomplis en matière d’intelligence artificielle, les entreprises ont

de plus en plus recours aux algorithmes pour améliorer leurs processus de

prise de décision et proposer de nouveaux services. Le Data scientist, à

travers sa faculté à trouver à partir de l’exploitation des données une réponse

adéquate à un problème fonctionnel donné, est au cœur de ces évolutions.

Après le module sur les bases de la Data science, la formation « Data Science

: niveau avancé » vous permettra d’approfondir certains des concepts avancés

de machine learning (feature engineering avancé, modèles ensemblistes…)

utilisés notamment par les lauréats de concours Kaggle. Vous découvrirez

également les techniques d’analyse et de traitement spécifiques aux données

de type image ou texte (deep learning, réseaux de neurones convolutifs,

réseaux récurrents,...).

OBJECTIFS PÉDAGOGIQUES

Découvrir et utiliser la puissance prédictive des modèles ensemblistes

Savoir effectuer un "feature engineering" performant

Appréhender les techniques de text-mining et de deep-learning à travers des

exemples concrets

Enrichir sa boite à outils de data scientist

PUBLIC CIBLE

Analyste

Statisticien

Architecte

Développeur

Data scientist

PRÉ-REQUIS

• Connaissances de base en programmation ou en scripting

• Avoir suivi la formation "Fondamentaux de la Data Science" (DSDFX)

serait en plus

MÉTHODE PÉDAGOGIQUE

Formation avec apports théoriques, échanges sur les contextes des

participants et retours d’expérience pratique du formateur, complétés de

travaux pratiques et de mises en situation.

PROFILS DES INTERVENANTS

Toutes nos formations sont animées par des consultants-formateurs

expérimentés et reconnus par leurs pairs.

MODALITÉS D'ÉVALUATION ET FORMALISATION À L'ISSUE DELA FORMATION

L'évaluation des acquis se fait tout au long de la session au travers des

Programme domaine "BIG DATA"Date de téléchargement : 15/09/2018

7

Page 8: DATA SCIENCE - OCTO Academy · Statisticien Architecte Développeur Data scientist ... INTRODUCTION AU TEXT MINING • Un modèle de représentation : le bag of words ... Choisir

ateliers et des mises en pratique. Une évaluation à chaud sur la satisfaction

des stagiaires est réalisée systématiquement en fin de session et une

attestation de formation est délivrée aux participants mentionnant les objectifs

de la formation, la nature, le programme et la durée de l'action de formation

ainsi que la formalisation des acquis.

POUR ALLER PLUS LOIN :

• Formation "Fondamentaux de la Data Science" (DSFDX)

• Ouvrage "Data Science : Fondamentaux et études de cas" - Eric Biernat,

Michel Lutz

• Ouvrage "The Elements of Statistical Learning: Data Mining, Inference, and

Prediction" - Hastie, Tibshirani, Friedman

• Toutes nos formations Data Science

• Nos formations Hadoop

• Nos formations NoSQL

Programme domaine "BIG DATA"Date de téléchargement : 15/09/2018

8

Page 9: DATA SCIENCE - OCTO Academy · Statisticien Architecte Développeur Data scientist ... INTRODUCTION AU TEXT MINING • Un modèle de représentation : le bag of words ... Choisir

Programme pédagogique détaillé par journée

Jour 1

RAPPEL DES FONDAMENTAUX

• Ecosystème Big Data et Data Science• Comment modéliser un problème de data science ?• Les différentes familles d’algorithmes (supervisé : classification/régression, non supervisé)• Les algorithmes classiques• Comment évaluer la performance ?• Sur apprentissage et compromis biais/variance

MODÈLES ENSEMBLISTES

• Rappels• Pourquoi ça fonctionne ? Raisons théoriques• Introduction au stacking

- Architecture et promesses du stacking- Feature weighted stacking- Mise en application

INTRODUCTION AU TEXT MINING

• Un modèle de représentation : le bag of words• Normalisations usuelles• Stemming, lemmatization• Distances (Levenshtein, Hamming, Jaro-Winkler)• Word2Vec

Jour 2

FEATURE ENGINEERING AVANCÉ

• Normalisation- Qu’est ce que la normalisation ?- Quand l’utiliser ?

• Réduction de dimension (ACP, TSNE, LSA, etc.)• Transformation et interactions entre variables• Traitement des variables catégorielles à haute dimensionnalité• Création de variables extraites d’arbres (Facebook Trick)

RÉSEAUX DE NEURONES ET DEEP LEARNING

• L’origine : le perceptron• Les réseaux de neurones• Deep learning

- Objectif : s’affranchir du feature engineering manuel- Convolution- Réseaux récurrents

• Cas concret : reconnaissance de chiffres

Programme domaine "BIG DATA"Date de téléchargement : 15/09/2018

9

Page 10: DATA SCIENCE - OCTO Academy · Statisticien Architecte Développeur Data scientist ... INTRODUCTION AU TEXT MINING • Un modèle de représentation : le bag of words ... Choisir

APPRENTISSAGE SEMI-SUPERVISÉ

Jour 3

RAPPELS ET RÉVISIONS

• Synthèse des points abordés en journées 1 et 2• Approfondissement des sujets sélectionnés avec l’intervenant

MISE EN PRATIQUE

• Le dernier jour est entièrement consacré à des mises en pratique

SÉLECTION ET PARTICIPATION À UNE COMPÉTITION

• Le formateur sélectionnera une compétition en cours sur Kaggle qui sera démarrée en jour 3 parl’ensemble des participants

Programme domaine "BIG DATA"Date de téléchargement : 15/09/2018

10

Page 11: DATA SCIENCE - OCTO Academy · Statisticien Architecte Développeur Data scientist ... INTRODUCTION AU TEXT MINING • Un modèle de représentation : le bag of words ... Choisir

NEW Cadrage et pilotage d'un projet de Data Science

Stage pratique en présentiel

DATA SCIENCE

Code :

DSGDP

Durée :

2 jours (14 heures)

Exposés :

40%

Cas pratiques :

40%

Échanges d'expérience :

20%

Sessions à venir :

4 - 5 oct. 2018

Paris / 1 850 eur

Tarif & dates intra :

Sur demande

DESCRIPTION

La Data Science, en tant que discipline scientifique et mathématique, est

aujourd’hui bien connue de ceux qui la pratiquent. Mais savez-vous identifier

les pièges et les embûches méthodologiques spécifiques aux projets de Data

Science ?

Forts de nos nombreux retours d’expérience et des connaissances pratiques

de nos consultants, nous vous convions à découvrir avec nous les enjeux et

les approches qui permettront à vos projets de se dérouler en toute sérénité,

du cadrage à la phase de pilotage de production.

OBJECTIFS PÉDAGOGIQUES

Savoir mener une phase de cadrage d’un projet de Data Science

Choisir les mesures de performance en accord avec un objectif métier

Piloter un projet de Data Science en exploration et production

PUBLIC CIBLE

Analyste

Statisticien

Développeur

PRÉ-REQUIS

• Connaissance des bases de la Data Science (modèles, biais, variance, etc.)

• Connaissance des librairies de manipulation de donnée en python (pandas,

numpy, etc.)

MÉTHODE PÉDAGOGIQUE

Formation avec apports théoriques, échanges sur les contextes des

participants et retours d’expérience pratique du formateur, complétés de

travaux pratiques et de mises en situation.

PROFILS DES INTERVENANTS

Toutes nos formations sont animées par des consultants-formateurs

expérimentés et reconnus par leurs pairs.

MODALITÉS D'ÉVALUATION ET FORMALISATION À L'ISSUE DELA FORMATION

L'évaluation des acquis se fait tout au long de la session au travers des

ateliers et des mises en pratique. Une évaluation à chaud sur la satisfaction

des stagiaires est réalisée systématiquement en fin de session et une

attestation de formation est délivrée aux participants mentionnant les objectifs

de la formation, la nature, le programme et la durée de l'action de formation

ainsi que la formalisation des acquis.

POUR ALLER PLUS LOIN :

• Toutes nos formations Data Science

• Formation « Data Science niveau avancé »

Programme domaine "BIG DATA"Date de téléchargement : 15/09/2018

11

Page 12: DATA SCIENCE - OCTO Academy · Statisticien Architecte Développeur Data scientist ... INTRODUCTION AU TEXT MINING • Un modèle de représentation : le bag of words ... Choisir

• Formation « Industrialisation d’un projet de Data Science »

• Ouvrage « Data Science : fondamentaux et études de cas » - Eric Biernat,

Michel Lutz (Eyrolles)

• Ouvrage « The Elements of Statistical Learning: Data Mining, Inference, and

Prediction » - Hastie, Tibshirani, Friedman

• Livre blanc "Hadoop, feuille de route"

• Toutes nos formations Hadoop Hortonworks

• Toutes nos formations Hadoop Cloudera

Programme domaine "BIG DATA"Date de téléchargement : 15/09/2018

12

Page 13: DATA SCIENCE - OCTO Academy · Statisticien Architecte Développeur Data scientist ... INTRODUCTION AU TEXT MINING • Un modèle de représentation : le bag of words ... Choisir

Programme pédagogique détaillé par journée

Jour 1

RAPPELS SUR LA DATA SCIENCE

• Qu’est-ce-que la Data Science ?• Qu’est-ce qu’un modèle ?

LA PHASE DE CADRAGE

• Cadrage d’un sujet supervisé- Découverte des données- Compréhension des enjeux métier- Choix de l’approche

• Visualiser pour comprendre• Echantillonnage• La temporalité dans les données

PILOTER SON PROJET PAR LA MESURE

• L’importance du test- Lien avec les tests d’intégration

• Le choix des métriques à optimiser- Les métriques de régression- Les métriques de classification

• Le choix des métriques d’évaluation• La validation croisée

- Cas nominal- Cas des variables temporelles

• Monitoring des modèles

L’AGILE EN DATASCIENCE

• Livrer souvent• Communiquer avec le client• Garantir la qualité• Amélioration continue

OPTIMISATION AVANCEE DE LA PERFORMANCE

• Sélection de variables- Eviter les fuites d’information- Cas des variables textuelles

• Choix des algorithmes• Tuning des hyperparamètres

- Grid search- Hyperopt- Parallélisme

AUDITER / COMPRENDRE UN MODELE

• Explicativité des algorithmes

Programme domaine "BIG DATA"Date de téléchargement : 15/09/2018

13

Page 14: DATA SCIENCE - OCTO Academy · Statisticien Architecte Développeur Data scientist ... INTRODUCTION AU TEXT MINING • Un modèle de représentation : le bag of words ... Choisir

- Feature importance- Feature contribution

Jour 2

RAPPELS ET REVISION DU JOUR 1

CAS PRATIQUE

• Exposé du problème• Découverte du dataset• Choix des métriques• Réalisation d’un premier modèle• Optimisation des performances

CONCLUSION

• Synthèse des points abordés• Partage sur la formation• Questions/Réponses additionnelles

Programme domaine "BIG DATA"Date de téléchargement : 15/09/2018

14

Page 15: DATA SCIENCE - OCTO Academy · Statisticien Architecte Développeur Data scientist ... INTRODUCTION AU TEXT MINING • Un modèle de représentation : le bag of words ... Choisir

NEW Industrialisation d'un projet de Data Science

Stage pratique en présentiel

DATA SCIENCE

Code :

DSIND

Durée :

2 jours (14 heures)

Exposés :

10%

Cas pratiques :

80%

Échanges d'expérience :

10%

Sessions à venir :

8 - 9 nov. 2018

Paris / 1 850 eur

Tarif & dates intra :

Sur demande

DESCRIPTION

La maturité du marché sur les sujets de la Data Science ne cesse de grandir

chaque jour. C’est pourquoi, il nous semble à présent important d’être

capable de déployer les POCs (Proof of Concept) les plus pertinents en

production, et enfin voir les applications de data science apporter de la valeur

aux entreprises.

Durant cette formation, vous profiterez de la riche expérience de nos

consultants pour découvrir la Data Science industrialisée, et vous pratiquerez

les meilleures méthodes pour faire passer votre projet du stade de la

recherche à celui de l’exploitation en évitant les pièges de l’effet « big bang

».

OBJECTIFS PÉDAGOGIQUES

Savoir emmener son modèle en production

Apprendre à gérer les nouvelles contraintes

Minimiser le coût de transfert de l’exploration à la production

Découvrir les concepts de Software Craftsmanship appliqués à la Data Science

PUBLIC CIBLE

Analyste

Statisticien

Développeur

PRÉ-REQUIS

• Connaissance des bases de la Data Science (modèles, biais, variance, etc.)

• Connaissance des librairies de manipulation de donnée en python (pandas,

numpy, etc.)

• Connaissance de la ligne de commande linux (bash par exemple)

MÉTHODE PÉDAGOGIQUE

Une formation pratique durant laquelle les participants partent d’un code

d’exploration préparé par le formateur et qu’ils vont amener en production,

étape par étape, en démontrant que la transition doit se faire de manière la

plus fluide possible.

PROFILS DES INTERVENANTS

Toutes nos formations sont animées par des consultants-formateurs

expérimentés et reconnus par leurs pairs.

MODALITÉS D'ÉVALUATION ET FORMALISATION À L'ISSUE DELA FORMATION

L'évaluation des acquis se fait tout au long de la session au travers des

ateliers et des mises en pratique. Une évaluation à chaud sur la satisfaction

des stagiaires est réalisée systématiquement en fin de session et une

attestation de formation est délivrée aux participants mentionnant les objectifs

de la formation, la nature, le programme et la durée de l'action de formation

Programme domaine "BIG DATA"Date de téléchargement : 15/09/2018

15

Page 16: DATA SCIENCE - OCTO Academy · Statisticien Architecte Développeur Data scientist ... INTRODUCTION AU TEXT MINING • Un modèle de représentation : le bag of words ... Choisir

ainsi que la formalisation des acquis.

POUR ALLER PLUS LOIN :

• Toutes nos formations Data Science

• Formation « Cadrage et pilotage d'un projet de Data Science »

• Formation « Data Science niveau avancé »

• Ouvrage « Data Science : fondamentaux et études de cas » - Eric Biernat,

Michel Lutz (Eyrolles)

• Ouvrage « The Elements of Statistical Learning: Data Mining, Inference, and

Prediction » - Hastie, Tibshirani, Friedman

• Livre blanc "Hadoop, feuille de route"

• Toutes nos formations Hadoop Hortonworks

• Toutes nos formations Hadoop Cloudera

• Toutes nos formations Pratiques du développement

Programme domaine "BIG DATA"Date de téléchargement : 15/09/2018

16

Page 17: DATA SCIENCE - OCTO Academy · Statisticien Architecte Développeur Data scientist ... INTRODUCTION AU TEXT MINING • Un modèle de représentation : le bag of words ... Choisir

Programme pédagogique détaillé par journée

Jour 1

INSTALLATION DES ENVIRONNEMENTS

• Jupyter Notebook• PyCharm• Environnement anaconda

LES CONTRAINTES DE LA PRODUCTION

• Monitoring• Logging• Réapprentissage• Cycle de vie d’un modèle

BONNES PRATIQUES DE CRAFTSMANSHIP

• Nettoyer son notebook• Noms des variables• Utilisation de fichiers de configuration• Programmation fonctionnelle• Immutabilité• Créer des fonctions

RENDRE SON CODE DÉPLOYABLE

• Extraire son code en module python• Utilisation de setuptools

- Créer son premier fichier setup.py- Connaître les options de base- Installer sa première librairie

TESTER SON CODE

• Découverte du TDD• Initiation à unittest

- Les classes de test- Ecrire son premier test- Les méthodes setup et teardown

• Intégration à setuptools

Jour 2

RAPPELS ET REVISION DU JOUR 1

INTEGRATION PAR BASE DE DONNEES

• Connexion à une base de donnée en python• Export de dataset• Les limitations de l’intégration par la donnée

Programme domaine "BIG DATA"Date de téléchargement : 15/09/2018

17

Page 18: DATA SCIENCE - OCTO Academy · Statisticien Architecte Développeur Data scientist ... INTRODUCTION AU TEXT MINING • Un modèle de représentation : le bag of words ... Choisir

METHODES DE VISUALISATION

• Superset• Grafana• ElasticSearch + Kibana• Gephi

INTEGRATION PAR SERVICE

• Introduction à flask• Introduction aux APIs

LES PRINCIPAUX MODES DE PRODUCTIONS

• Batch• Stream

CONCLUSION

• Synthèse des points abordés• Partage sur la formation• Questions/Réponses additionnelles

Programme domaine "BIG DATA"Date de téléchargement : 15/09/2018

18

Page 19: DATA SCIENCE - OCTO Academy · Statisticien Architecte Développeur Data scientist ... INTRODUCTION AU TEXT MINING • Un modèle de représentation : le bag of words ... Choisir

NEW Architecture des données : stockage et accès

Stage pratique en présentiel

DATA SCIENCE

Code :

DSARC

Durée :

3 jours (21 heures)

Exposés :

50%

Cas pratiques :

40%

Échanges d'expérience :

10%

Sessions à venir :

12 - 14 déc. 2018

Paris / 2 350 eur

Tarif & dates intra :

Sur demande

DESCRIPTION

Si les algorithmes de Machine Learning ont connu des avancées majeures ces

dernières années, c’est avant tout grâce à la quantité d’information disponible

pour les entraîner. Accumuler toute cette donnée, la traiter, et la rendre

disponible sont les enjeux principaux du mouvement Big Data.

Au cours de cette formation, nos consultants mettent à disposition les

connaissances issues de leurs retours d'expériences auprès de nos clients, et

vous font découvrir les bases des architectures permettant de répondre à ces

enjeux de stockage et d’accès.

OBJECTIFS PÉDAGOGIQUES

Découvrir les notions centrales de stockage de données

Appréhender les enjeux des nouvelles architectures de données (Hadoop,

NoSQL, Spark), et positionner leurs usages au sein de l’univers Big Data

Savoir manipuler ces technologies et les bases de données de façon

conjointe, pour mener à bien des analyses efficaces

PUBLIC CIBLE

Analyste

Statisticien

Développeur

PRÉ-REQUIS

• Notions de programmation sur la base d’un langage quelconque

• Manipulation basique de la ligne de commande Linux

MÉTHODE PÉDAGOGIQUE

Formation avec apports théoriques, échanges sur les contextes des

participants et retours d’expérience pratique du formateur, complétés de

travaux pratiques et de mises en situation.

PROFILS DES INTERVENANTS

Toutes nos formations sont animées par des consultants-formateurs

expérimentés et reconnus par leurs pairs.

MODALITÉS D'ÉVALUATION ET FORMALISATION À L'ISSUE DELA FORMATION

L'évaluation des acquis se fait tout au long de la session au travers des

ateliers et des mises en pratique. Une évaluation à chaud sur la satisfaction

des stagiaires est réalisée systématiquement en fin de session et une

attestation de formation est délivrée aux participants mentionnant les objectifs

de la formation, la nature, le programme et la durée de l'action de formation

ainsi que la formalisation des acquis.

POUR ALLER PLUS LOIN :

• Toutes nos formations Data Science

Programme domaine "BIG DATA"Date de téléchargement : 15/09/2018

19

Page 20: DATA SCIENCE - OCTO Academy · Statisticien Architecte Développeur Data scientist ... INTRODUCTION AU TEXT MINING • Un modèle de représentation : le bag of words ... Choisir

• Formation « Data Science niveau avancé »

• Formation « Industrialisation d’un projet de Data Science » - Eric Biernat,

Michel Lutz (Eyrolles)

• Ouvrage “Hadoop: the definitive guide” – Tom White (O’Reilly)

• Livre blanc "Hadoop, feuille de route"

• Toutes nos formations Hadoop Hortonworks

• Toutes nos formations Pratiques du développement

Programme domaine "BIG DATA"Date de téléchargement : 15/09/2018

20

Page 21: DATA SCIENCE - OCTO Academy · Statisticien Architecte Développeur Data scientist ... INTRODUCTION AU TEXT MINING • Un modèle de représentation : le bag of words ... Choisir

Programme pédagogique détaillé par journée

Jour 1

INTRODUCTION

ACCES AUX DONNEES

• Les fichiers- Arborescence- Formats

• Les bases de données- Notion de Catalogue- Le langage SQL- Data Warehouses et Data Lake- Bases d’analyse

• API- Définition- Web Scraping

• Traitements en mémoire

ARCHITECTURE DE DONNEES

• Limites des systèmes traditionnels- Limites des fichiers- Limites des SGBD

• Les architectures distribuées- Patterns d’accès- Distribution vs Réplication

• Concepts essentiels- Disponibilités- Cohérence- Tolérance à la partition

• Le théorème CAP• Quorums

BASES NOSQL

• Avantages et inconvénients• Modèles de données

- Key-Value- Documents- Column-Family- Graph

• Exemple : MongoDB• Les moteurs de recherche

JOUR 2

HADOOP

Programme domaine "BIG DATA"Date de téléchargement : 15/09/2018

21

Page 22: DATA SCIENCE - OCTO Academy · Statisticien Architecte Développeur Data scientist ... INTRODUCTION AU TEXT MINING • Un modèle de représentation : le bag of words ... Choisir

• Introduction à Hadoop- Histoire- Ecosystème

• HDFS• Map-Reduce

- Les phases de Map-Reduce- Notion de job- Exemple

• YARN• Les distributions• La ligne de commande• Administration d’un cluster

- Resource Manager- History Server- Hue

ETUDES DE CAS

• Traitements de courbes de charge- Contexte et hypothèses- Raisonnements

• Analyse de logs- Contexte et Hypothèses- Raisonnements

CONCLUSION

• Rappels des points abordés• Questions et réponses• Synthèse

Jour 3

DÉCOUVERTE DE SPARK

• Spark Core- RDD- Transformations- Pair RDD

• Spark SQL• Spark Streaming• Structured Streaming

Programme domaine "BIG DATA"Date de téléchargement : 15/09/2018

22

Page 23: DATA SCIENCE - OCTO Academy · Statisticien Architecte Développeur Data scientist ... INTRODUCTION AU TEXT MINING • Un modèle de représentation : le bag of words ... Choisir

BIG DATA

HADOOP HORTONWORKS

Programme domaine "BIG DATA"Date de téléchargement : 15/09/2018

23

Page 24: DATA SCIENCE - OCTO Academy · Statisticien Architecte Développeur Data scientist ... INTRODUCTION AU TEXT MINING • Un modèle de représentation : le bag of words ... Choisir

Les fondamentaux d’Hadoop

Stage pratique en présentiel

HADOOP HORTONWORKS

Code :

HDP01

Durée :

2 jours (14 heures)

Exposés :

60%

Cas pratiques :

30%

Échanges d'expérience :

10%

Sessions à venir :

27 - 28 sept. 2018

Paris / 1 590 eur

Tarif & dates intra :

Sur demande

DESCRIPTION

Cette formation est une initiation aux fondamentaux d’Hadoop. Elle donne

aux participants une connaissance théorique et pratique de la plateforme, au

travers de plusieurs exercices pratiques appliqués à des cas réels. A l’issue de

la session, les participants seront en capacité d’utiliser les outils de

l’écosystème Hadoop pour explorer des données stockées sur un entrepôt

Big Data.

OBJECTIFS PÉDAGOGIQUES

Appréhender le fonctionnement d’Hadoop

Identifier l’écosystème : quels outils pour quels usages ?

Manipuler les principales commandes shell d’interaction avec Hadoop

Emettre des requêtes SQL avec Hive et HCatalog

Créer des traitements de données avec Pig

PUBLIC CIBLE

Analyste

Data scientist

Architecte

Développeur

PRÉ-REQUIS

• Connaissances de base en programmation ou en scripting.

MÉTHODE PÉDAGOGIQUE

Apports théoriques préalables présentant la plateforme Hadoop, son

fonctionnement et son écosystème.

Travaux pratiques pour une mise en application immédiate.

Les travaux pratiques s’effectueront sur un cluster Apache Hadoop 2.x.

PROFILS DES INTERVENANTS

Toutes nos formations sont animées par des consultants-formateurs

expérimentés et reconnus par leurs pairs.

MODALITÉS D'ÉVALUATION ET FORMALISATION À L'ISSUE DELA FORMATION

L'évaluation des acquis se fait tout au long de la session au travers des

ateliers et des mises en pratique. Une évaluation à chaud sur la satisfaction

des stagiaires est réalisée systématiquement en fin de session et une

attestation de formation est délivrée aux participants mentionnant les objectifs

de la formation, la nature, le programme et la durée de l'action de formation

ainsi que la formalisation des acquis.

POUR ALLER PLUS LOIN :

• Livre blanc "Hadoop, feuille de route"

• Toutes nos formations Hadoop

• Formation officielle Hortonworks "Administrer la plateforme Hadoop 2.X

Programme domaine "BIG DATA"Date de téléchargement : 15/09/2018

24

Page 25: DATA SCIENCE - OCTO Academy · Statisticien Architecte Développeur Data scientist ... INTRODUCTION AU TEXT MINING • Un modèle de représentation : le bag of words ... Choisir

Hortonworks 1" (HDP Operations: Hadoop Administration 1) (HWADM)

• Formation officielle Hortonworks "Administrer la plateforme Hadoop 2.X

Hortonworks : niveau avancé" (HDP Administrator: Hadoop Administration 2)

(HWAD2)

• Formation officielle Hortonworks "Administrer la plateforme Hadoop 2.X

Hortonworks : sécurité" (HDP Operations: Security) (HWADS)

• Formation officielle Hortonworks "Analyse de données pour Hadoop 2.X

Hortonworks avec Pig, Hive et Spark" (HDP Developer: Apache Pig and Hive)

(HWAPH)

• Formation officielle Hortonworks "Développer des applications pour

Apache Spark avec Python ou Scala" (HDP Developer: Enterprise Spark 1)

(HWSPK)

• Toutes nos formations Data Science

• Formation "Fondamentaux de la Data Science" (DSFDX)

• Formation "Data Science : niveau avancé" (DSNVA)

Programme domaine "BIG DATA"Date de téléchargement : 15/09/2018

25

Page 26: DATA SCIENCE - OCTO Academy · Statisticien Architecte Développeur Data scientist ... INTRODUCTION AU TEXT MINING • Un modèle de représentation : le bag of words ... Choisir

Programme pédagogique détaillé par journée

Jour 1

INTRODUCTION AU BIG DATA

• Qu’est-ce que Big Data ?• Les grands enjeux métier• Paysage technologique : les architectures Big Data

INTRODUCTION À HADOOP

• Historique succinct• Le cœur de la plateforme : HDFS et YARN• L’écosystème Hadoop

- Frameworks et algorithmes- Bases de données- Traitements des données- Intégration

• Hadoop et la sécurité des données

MANIPULER LA LIGNE DE COMMANDE HADOOP

• Présentation des principales commandes• Mise en pratique "Manipulation et transfert de fichiers en ligne de commande

UNE INTERFACE UTILISATEUR POUR HADOOP : HUE

• Présentation de Hue et de ses modules• Mise en pratique "Manipulation interactive de données"

INTERROGER HADOOP AVEC DU SQL : HIVE

• Présentation de Hive• Mise en pratique "Manipulation de données avec SQL"

- Créer un modèle de données- Importer des fichiers sources- Requêter les données

Jour 2

TRANSFORMER DES DONNÉES : LE LANGAGE PIG

• Présentation de Pig• Mise en pratique "Transformation de données avec Pig"

- Charger des données semi-structurées- Croiser avec des données Hive- Sauvegarder le résultat dans HDFS

ECRITURE DE TRAITEMENTS AVANCÉS

• Présentation du framework Hadoop Streaming• Présentation express du langage Python et du squelette de programme pour l’exercice• Mise en pratique "Ecriture d’un programme de manipulation complexe"

Programme domaine "BIG DATA"Date de téléchargement : 15/09/2018

26

Page 27: DATA SCIENCE - OCTO Academy · Statisticien Architecte Développeur Data scientist ... INTRODUCTION AU TEXT MINING • Un modèle de représentation : le bag of words ... Choisir

COMPOSITION ET ORDONNANCEMENT DE TRAITEMENTS

• Présentation d’Oozie• Mise en pratique "Création d’un pipeline de traitement de données"

Programme domaine "BIG DATA"Date de téléchargement : 15/09/2018

27

Page 28: DATA SCIENCE - OCTO Academy · Statisticien Architecte Développeur Data scientist ... INTRODUCTION AU TEXT MINING • Un modèle de représentation : le bag of words ... Choisir

BEST Administrer la plateforme Hadoop 2.X Hortonworks :fondamentaux

Formation officielle Hortonworks "HDP Hadoop Administration 1 foundations"

Stage pratique en présentiel

HADOOP HORTONWORKS

Code :

HWADM

Durée :

4 jours (28 heures)

Certification :

300 € HT

Exposés :

40%

Cas pratiques :

50%

Échanges d'expérience :

10%

Sessions à venir :

1 - 4 oct. 2018

Paris / 2 600 eur

3 - 6 déc. 2018

Paris / 2 600 eur

Tarif & dates intra :

Sur demande

DESCRIPTION

Cette session prépare au rôle d’administrateur au sein d’un contexte

technologique innovant et en particulier au cours d’un projet Big Data. A

travers des exercices concrets, vous apprendrez à concevoir, installer,

configurer et maintenir un cluster Hadoop.

A l'issue de cette formation, vous aurez grâce aux mises en pratique une

solide compréhension d'Apache Ambari et vous appréhenderez son utilisation

comme outil de gestion de la plateforme Hortonworks.

OBJECTIFS PÉDAGOGIQUES

Dimensionner un cluster Hadoop

Installer un cluster Hadoop

Configurer un cluster Hadoop

Sécuriser un cluster Hadoop

Maintenir un cluster Hadoop

PUBLIC CIBLE

Architecte

Administrateur

PRÉ-REQUIS

• Connaissances de l’environnement Linux.

• Capacité à lire et exécuter des scripts shell Linux simples.

• Il est recommandé d’avoir des connaissances de base autour des requêtes

SQL et de l’expérience sur les sujets opérationnels tels que la gestion des

incidents et la gestion des versions.

MÉTHODE PÉDAGOGIQUE

Formation avec apports théoriques, échanges sur les contextes des

participants et retours d’expérience pratique du formateur, complétés de

travaux pratiques et de mises en situation.

Cette formation prépare à la certification éditeur Hortonworks.

PROFILS DES INTERVENANTS

Toutes nos formations sont animées par des consultants-formateurs

expérimentés et reconnus par leurs pairs.

MODALITÉS D'ÉVALUATION ET FORMALISATION À L'ISSUE DELA FORMATION

L'évaluation des acquis se fait tout au long de la session au travers des

ateliers et des mises en pratique. Une évaluation à chaud sur la satisfaction

des stagiaires est réalisée systématiquement en fin de session et une

attestation de formation est délivrée aux participants mentionnant les objectifs

Programme domaine "BIG DATA"Date de téléchargement : 15/09/2018

28

Page 29: DATA SCIENCE - OCTO Academy · Statisticien Architecte Développeur Data scientist ... INTRODUCTION AU TEXT MINING • Un modèle de représentation : le bag of words ... Choisir

de la formation, la nature, le programme et la durée de l'action de formation

ainsi que la formalisation des acquis.

POUR ALLER PLUS LOIN :

• Site internet Hortonworks

• Toutes nos formations HADOOP HORTONWORKS

• Formation officielle Hortonworks "Administrer la plateforme Hadoop 2.X

Hortonworks : niveau avancé" (HDP Administrator: Hadoop Administration 2)

(HWAD2)

• Formation officielle Hortonworks "Administrer la plateforme Hadoop 2.X

Hortonworks : sécurité" (HDP Operations: Security) (HWADS)

• Formation officielle Hortonworks "Analyse de données pour Hadoop 2.X

Hortonworks avec Pig, Hive et Spark" (HDP Developer: Apache Pig and Hive)

(HWAPH)

• Formation officielle Hortonworks "Développer des applications pour

Apache Spark avec Python ou Scala" (HDP Developer: Enterprise Spark 1)

(HWSPK)

• Livre blanc "Hadoop, feuille de route"

• Toutes nos formations Data Science

• Formation "Fondamentaux de la Data Science" (DSFDX)

• Formation "Data Science : niveau avancé" (DSNVA)

Programme domaine "BIG DATA"Date de téléchargement : 15/09/2018

29

Page 30: DATA SCIENCE - OCTO Academy · Statisticien Architecte Développeur Data scientist ... INTRODUCTION AU TEXT MINING • Un modèle de représentation : le bag of words ... Choisir

Programme pédagogique détaillé par journée

Jour 1:

BIG DATA, HADOOP ET LA PLATEFORME HORTONWORKS : LES BASES DU BIG DATA

• Les produits de la HDP• Qu’est-ce que Hadoop ?• Introduction à Ambari

INSTALLER LA HDP

• Identifier les options de déploiement de cluster• Planifier un déploiement de cluster• Faire une installation avec Ambari• Mise en pratique : « Installer la HDP »

GESTION DES UTILISATEURS AVEC AMBARI

• Gérer les utilisateurs et les groupes• Gérer les permissions• Mise en pratique : « Gestion des utilisateurs avec Ambari »

GESTION DES SERVICES HADOOP VIA AMBARI

• Configuration des services• Surveillance des services• Maintenance des services• Mise en pratique : « Gestion des services Hadoop »

UTILISER LE STOCKAGE HDFS

• Accéder aux données• Gestion des fichiers• Mise en pratique : « Utiliser le stockage HDFS »• Les web services d’HDFS• Mise en pratique : « Utiliser WebHDFS »• Protéger les accès• Mise en pratique : « Utiliser les ACLs HDFS »

Jour 2 :

GESTION DU STOCKAGE HDFS

• Architecture HDFS• Gestion d’HDFS à travers l’interface Ambari Web• Gestion d’HDFS en ligne de commande• Mise en pratique : « Gestion du stockage sur HDFS »• Les quotas HDFS• Mise en pratique : « Gestion des quotas sur HDFS »

GESTION DES RACKS SUR HADOOP

• Les bénéfices de la « rack awareness »

Programme domaine "BIG DATA"Date de téléchargement : 15/09/2018

30

Page 31: DATA SCIENCE - OCTO Academy · Statisticien Architecte Développeur Data scientist ... INTRODUCTION AU TEXT MINING • Un modèle de représentation : le bag of words ... Choisir

• Configurer la « rack awareness »• Mise en pratique : « Configurer la rack awareness »

PROTÉGER SES DONNÉES

• De l’importance des backups• Les snapshots HDFS• Utiliser DistCP• Mise en pratique : « Gestion des snapshots HDFS »• Mise en pratique : « Utiliser DistCP »

CONFIGURER LE STOCKAGE HÉTÉROGÈNE HDFS

• Les principes du stockage hétérogène• Mise en pratique “Configuration des règles de stockage HDFS”

CONFIGURER LE CACHE CENTRALISÉ HDFS

• De l’utilité d’un cache HDFS centralisé• Définir et gérer des groupes et instructions de cache• Mise en pratique « Configuration du cache centralisé HDFS »

GATEWAY NFS SUR HDFS

• Les cas d’utilisations d’une gateway NFS sur HDFS• Architecture et opération de la gateway NFS• Installer et configurer la gateway NFS• Mise en pratique « configurer une gateway NFS sur HDFS »

Jour 3 :

GESTION DES RESSOURCES AVEC YARN

• Architecture et Opération de YARN• Les différentes façons de gérer YARN• La gestion YARN des échecs de composants• Mise en pratique : « Configurer et gérer YARN »• Mise en pratique : « Gestion de YARN sans Ambari »

DÉCOUVERTE DES APPLICATIONS YARN

• Les bases d’une application YARN• Mise en pratique : « Démarrer une application YARN »

LE CAPACITY SCHEDULER DE YARN

• Contrôler la répartition des ressources grâce aux queues YARN• Configuration et gestion des queues YARN• Contrôler les accès sur les queues YARN• Mise en pratique : « Configurer le capacity scheduler »• Mise en pratique : « Gérer les ressources et queues YARN »• Mise en pratique : « Gérer les autorisations et les limites utilisateurs pour YARN »

LES LABELS SUR LES NŒUDS YARN

Programme domaine "BIG DATA"Date de téléchargement : 15/09/2018

31

Page 32: DATA SCIENCE - OCTO Academy · Statisticien Architecte Développeur Data scientist ... INTRODUCTION AU TEXT MINING • Un modèle de représentation : le bag of words ... Choisir

• Principes de base et application• Activer et configurer les labels• Gestion des labels (ajout, suppression et modification)• Configurer les queues pour accéder aux ressources des labels• Tester les labels pour valider leur comportement• Mise en pratique : « Configurer les labels de nœuds YARN »

Jour 4 :

ACTIVER LA HAUTE DISPONIBILITÉ AVEC HDFS ET YARN

• Les principes de la haute disponibilité• Haute disponibilité du Namenode• Haute disponibilité du Resource manager• Mise en pratique : « Configurer la haute disponibilité du namenode »• Mise en pratique : « Configurer la haute disponibilité du resource manager »

GESTION DES NŒUDS DANS UN CLUSTER

• Ajouter, enlever un nœud du cluster• Déplacer des composants• Mise en pratique : « Ajouter, décommissionner et recommissionner un nœud »

SURVEILLANCE DE CLUSTER

• Surveillance avec Ambari• Lever des alertes avec Ambari• Mise en pratique : « Configurer les alertes avec Ambari »

LES BLUEPRINTS AMBARI

• Déploiement de cluster à la volée grâce aux blueprints• Mise en pratique : "Déploiement de cluster avec les blueprints Ambari"

MONTÉE DE VERSION HDP

• Comprendre la stack HDP et sa version• Les types et méthodes de montée de version avec HDP• Le processus de montée de version, restrictions et prérequis• Mise en pratique : "Faire une montée de version HDP"

Programme domaine "BIG DATA"Date de téléchargement : 15/09/2018

32

Page 33: DATA SCIENCE - OCTO Academy · Statisticien Architecte Développeur Data scientist ... INTRODUCTION AU TEXT MINING • Un modèle de représentation : le bag of words ... Choisir

BEST Administrer la plateforme Hadoop 2.X Hortonworks :niveau avancé

Formation Hadoop officielle Hortonworks "HDP Administrator: HDP Administration 2"

Stage pratique en présentiel

HADOOP HORTONWORKS

Code :

HWAD2

Durée :

3 jours (21 heures)

Certification :

300 € HT

Exposés :

40%

Cas pratiques :

50%

Échanges d'expérience :

10%

Sessions à venir :

12 - 14 déc. 2018

Paris / 1 990 eur

Tarif & dates intra :

Sur demande

DESCRIPTION

Cette formation est destinée aux administrateurs de plateforme HDP qui

souhaiteraient approfondir leurs connaissances. Le focus est mis sur la haute

disponibilité des divers outils, la gouvernance de la donnée, les réglages

avancés de la plateforme ainsi que l’automatisation de déploiement de celle-

ci.

OBJECTIFS PÉDAGOGIQUES

Mettre en place une gestion avancée du stockage sur HDFS

Piloter une gestion avancée de l’utilisation des ressources avec YARN et

Slider

Réaliser un paramétrage avancé des outils de développement

Assurer une gouvernance de la donnée avec Falcon et Oozie

Automatiser le déploiement avec Ambari Blueprint

PUBLIC CIBLE

Administrateur et architecte de la plateforme HDP cherchant à approfondir et

à développer leurs compétences.

PRÉ-REQUIS

• Avoir suivi la formation "Administrer la plateforme Hadoop 2.X

Hortonworks 1" (HWADM) serait un plus.

• Expérience en ligne de commande.

• Expérience en administration de la HDP.

MÉTHODE PÉDAGOGIQUE

Formation avec apports théoriques, échanges sur les contextes des

participants et retours d’expérience pratique du formateur, complétés de

travaux pratiques et de mises en situation.

Cette formation prépare à la certification éditeur Hortonworks.

PROFILS DES INTERVENANTS

Toutes nos formations sont animées par des consultants-formateurs

expérimentés et reconnus par leurs pairs.

MODALITÉS D'ÉVALUATION ET FORMALISATION À L'ISSUE DELA FORMATION

L'évaluation des acquis se fait tout au long de la session au travers des

ateliers et des mises en pratique. Une évaluation à chaud sur la satisfaction

des stagiaires est réalisée systématiquement en fin de session et une

attestation de formation est délivrée aux participants mentionnant les objectifs

de la formation, la nature, le programme et la durée de l'action de formation

ainsi que la formalisation des acquis.

Programme domaine "BIG DATA"Date de téléchargement : 15/09/2018

33

Page 34: DATA SCIENCE - OCTO Academy · Statisticien Architecte Développeur Data scientist ... INTRODUCTION AU TEXT MINING • Un modèle de représentation : le bag of words ... Choisir

POUR ALLER PLUS LOIN :

• Site internet Hortonworks

• Livre blanc "Hadoop, feuille de route"

• Toutes nos formations HADOOP HORTONWORKS

• Formation officielle Hortonworks "Administrer la plateforme Hadoop 2.X

Hortonworks : fondamentaux" (Formation officielle Hortonworks "HDP

Hadoop Administration 1 foundations") (HWADM)

• Formation officielle Hortonworks "Administrer la plateforme Hadoop 2.X

Hortonworks : sécurité" (HDP Operations: Security) (HWADS)

• Formation officielle Hortonworks "Analyse de données pour Hadoop 2.X

Hortonworks avec Pig, Hive et Spark" (HDP Developer: Apache Pig and Hive)

(HWAPH)

• Formation officielle Hortonworks "Développer des applications pour

Apache Spark avec Python ou Scala" (HDP Developer: Enterprise Spark 1)

(HWSPK)

• Toutes nos formations Data Science

• Formation "Fondamentaux de la Data Science" (DSFDX)

• Formation "Data Science : niveau avancé" (DSNVA)

Programme domaine "BIG DATA"Date de téléchargement : 15/09/2018

34

Page 35: DATA SCIENCE - OCTO Academy · Statisticien Architecte Développeur Data scientist ... INTRODUCTION AU TEXT MINING • Un modèle de représentation : le bag of words ... Choisir

Programme pédagogique détaillé par journée

Durée et programme non définitifs à ce jour. Formation confirmée sous réserve de lamise à jour de l'éditeur.

Jour 1

UPGRADE DE VERSION HDP

• Compatibilités de version• Les prérequis à la montée de version• Installer la nouvelle version• Mise en pratique : "Faire une montée de version HDP"

CONFIGURATION DU STOCKAGE HÉTÉROGÈNE HDFS

• Les différents stockages physiques supportés• Stockage asymétrique• Politique de stockage de la donnée• Configurer ses politiques• Mise en pratique : "Configurer les politiques de stockage HDFS"

GATEWAY NFS SUR HDFS

• Monter une gateway NFS• Comment scaler son gateway ?• Authentification des utilisateurs• Installation de la gateway• Mise en pratique : "Configurer la gateway NFS"

CONFIGURER LE CACHE CENTRALISÉ HDFS

• Qu’est-ce que le cache centralisé ?• Mécanique interne du cache• Utilisation du cache• Gestion du cache• Mise en pratique : "Configurer le cache centralisé HDFS"

GESTION DE LA COMPRESSION DE LA DONNÉE

• Trade-off de la compression• Quel niveau de compression pour vos données ?• Codecs et sérialisation

Jour 2

LES LABELS SUR LES NŒUDS YARN

• Principes de base et application• Gestion des labels• Activer et configurer les labels• Mise en pratique : "Configurer et tester les labels de nœuds YARN"

Programme domaine "BIG DATA"Date de téléchargement : 15/09/2018

35

Page 36: DATA SCIENCE - OCTO Academy · Statisticien Architecte Développeur Data scientist ... INTRODUCTION AU TEXT MINING • Un modèle de représentation : le bag of words ... Choisir

DÉPLOIEMENT D’APPLICATIONS AVEC APACHE SLIDER

• Quels usages pour Slider ?• L’intégration avec YARN• Slider pour les développeurs• Déployer une application Slider• Mise en pratique : "Déployer HBase avec Slider"

INTÉGRATION DU LDAP AVEC AMBARI

• Configurer le LDAP avec Ambari• Synchronisation des utilisateurs• Mise en pratique : "Intégrer un LDAP avec Ambari"

PARAMÉTRAGE DE HIVE

• Vers des requêtes Hive interactive• Améliorer Hive avec Tez

HAUTE DISPONIBILITÉ DU SERVEUR HIVE

• L’architecture de Hive• Les prérequis pour la HA• Installer et configurer la HA• Mise en pratique : "Configurer la HA Hive"

GESTION DES WORKFLOWS AVEC OOZIE

• Retour sur les possibilités offertes• L’architecture d’Oozie• Déploiement de jobs sur Oozie• Mise en pratique : "Gestion de workflow avec Oozie"

Jour 3

HAUTE DISPONIBILITÉ OOZIE

• Prérequis à la HA• Architecture HA pour Oozie• Configurer la HA• Mise en pratique : "Configurer la HA Oozie"

INTRODUCTION À FALCON

• Les challenges de la gouvernance de la donnée• Le cycle de vie de la donnée• Lineage de la donnée• Architecture Falcon• Déploiement de Falcon• Les entités Falcon• Mirroring avec Falcon• Mise en pratique : "Configurer les entités et le mirroring Falcon"

PROVISIONNEMENT DE CLUSTER AVEC LES BLUEPRINTS AMBARI

Programme domaine "BIG DATA"Date de téléchargement : 15/09/2018

36

Page 37: DATA SCIENCE - OCTO Academy · Statisticien Architecte Développeur Data scientist ... INTRODUCTION AU TEXT MINING • Un modèle de représentation : le bag of words ... Choisir

• Déploiement de cluster à la volée grâce aux blueprints• Capturer les blueprints• Déploiement de template de création• Les fichiers de configuration logique• Les templates de création pour les noeuds• Les bonnes pratiques pour le déploiement avec les blueprints• Mise en pratique : "Déploiement de cluster et ajouts de nœuds avec les blueprints Ambari"

Programme domaine "BIG DATA"Date de téléchargement : 15/09/2018

37

Page 38: DATA SCIENCE - OCTO Academy · Statisticien Architecte Développeur Data scientist ... INTRODUCTION AU TEXT MINING • Un modèle de représentation : le bag of words ... Choisir

EXCLU Administrer la plateforme Hadoop 2.X Hortonworks :sécurité

Formation officielle Hortonworks "HDP Operations: Security"

Stage pratique en présentiel

HADOOP HORTONWORKS

Code :

HWADS

Durée :

3 jours (21 heures)

Exposés :

40%

Cas pratiques :

50%

Échanges d'expérience :

10%

Sessions à venir :

5 - 7 nov. 2018

Paris / 2 820 eur

Tarif & dates intra :

Sur demande

DESCRIPTION

Ce cours est destiné aux administrateurs expérimentés qui mettront en

œuvre des clusters Hadoop sécurisés à l'aide de stratégies et d'outils

d'authentification, d'autorisation, d'audit et de protection des données.

OBJECTIFS PÉDAGOGIQUES

Introduire les 5 piliers de la sécurité

Décrire la façon dont la sécurité est intégrée à Hadoop

Découvrir et installer Kerberos

Protéger son cluster avec Knox

Gérer les permissions et l’audit avec Ranger

PUBLIC CIBLE

Administrateurs en charge de l'installation, de la configuration et de la prise en

charge d'un déploiement Apache Hadoop pour un environnement sécurisé.

PRÉ-REQUIS

• Avoir suivi la formation « Administrer la plateforme Hadoop 2.X

Hortonworks : fondamentaux » (HWADM).

• Expérience en administration de la plateforme HDP en utilisant les

environnements Ambari et Linux.

MÉTHODE PÉDAGOGIQUE

Formation avec apports théoriques, échanges sur les contextes des

participants et retours d’expérience pratique du formateur, complétés de

travaux pratiques et de mises en situation.

Les labs sont configurés pour prendre en charge le Kerberos KDC (Key

Distribution Center) du client. La version initiale des labs utilisait "Active

Directory comme KDC Kerberos". Cependant, les clients veulent maintenant

déployer en utilisant "MIT KDC en tant que KDC Kerberos avec Cross Realm

Trust pour Active Directory". Ce cours fournit désormais les deux

environnements pour permettre au client de choisir les labs qui correspondent

le mieux à son choix Kerberos KDC.

PROFILS DES INTERVENANTS

Toutes nos formations sont animées par des consultants-formateurs

expérimentés et reconnus par leurs pairs.

MODALITÉS D'ÉVALUATION ET FORMALISATION À L'ISSUE DELA FORMATION

L'évaluation des acquis se fait tout au long de la session au travers des

ateliers et des mises en pratique. Une évaluation à chaud sur la satisfaction

des stagiaires est réalisée systématiquement en fin de session et une

Programme domaine "BIG DATA"Date de téléchargement : 15/09/2018

38

Page 39: DATA SCIENCE - OCTO Academy · Statisticien Architecte Développeur Data scientist ... INTRODUCTION AU TEXT MINING • Un modèle de représentation : le bag of words ... Choisir

attestation de formation est délivrée aux participants mentionnant les objectifs

de la formation, la nature, le programme et la durée de l'action de formation

ainsi que la formalisation des acquis.

POUR ALLER PLUS LOIN :

• Site internet Hortonworks

• Livre blanc "Hadoop, feuille de route"

• Toutes nos formations HADOOP HORTONWORKS

• Formation officielle Hortonworks "Administrer la plateforme Hadoop 2.X

Hortonworks : fondamentaux" (Formation officielle Hortonworks "HDP

Hadoop Administration 1 foundations") (HWADM)

• Formation officielle Hortonworks "Administrer la plateforme Hadoop 2.X

Hortonworks : niveau avancé" (HDP Administrator: Hadoop Administration 2)

(HWAD2)

• Formation officielle Hortonworks "Analyse de données pour Hadoop 2.X

Hortonworks avec Pig, Hive et Spark" (HDP Developer: Apache Pig and Hive)

(HWAPH)

• Formation officielle Hortonworks "Développer des applications pour

Apache Spark avec Python ou Scala" (HDP Developer: Enterprise Spark 1)

(HWSPK)

• Toutes nos formations Data Science

• Formation "Fondamentaux de la Data Science" (DSFDX)

• Formation "Data Science : niveau avancé" (DSNVA)

Programme domaine "BIG DATA"Date de téléchargement : 15/09/2018

39

Page 40: DATA SCIENCE - OCTO Academy · Statisticien Architecte Développeur Data scientist ... INTRODUCTION AU TEXT MINING • Un modèle de représentation : le bag of words ... Choisir

Programme pédagogique détaillé par journée

Jour 1 : Présentation des concepts de "sécurité", "sécurisation des données sensibles","intégration de la sécurité HDP" et des prérequis de la sécurité HDP

OBJECTIFS DE LA JOURNÉE

• Définir la Sécurité• Décrire les 5 piliers d’un environnement sécurisé• Découvrir pourquoi un environnement sécurisé est indispensable• Décrire HDP Security• Lister les implications en matière de sécurité• Décrire les flux typiques en matière de sécurité• Lister les pré requis de sécurité• Décrire l’autorisation avec Apache Ranger• Décrire l'utilisation et le but du cryptage HDFS• Décrire l'utilisation et le but de Wire Encryption• Choisir les meilleurs outils en matière de sécurité en fonction de vos usages spécifiques• Décrire l’objectif de Apache Knox Gateway• Décrire le processus• Décrire le processus de chiffrement avec Apache Ranger KMS• Décrire l’objectif et les options pour l’implémentation de KBC Kerberos• Configurer Ambari Security• Découvrir comment crypter une base de données et les mots de passe LDAP• Décrire comment configurer SSL pour le serveur Ambari• Configurer le Two-Way SSL entre les agents Ambari et le serveur• Configurer Ambari Views pour des accès controlés• Comprendre l’utilisation et l’architecture Kerberos• Installer Kerberos• Lister les solutions de sécurité partenaires

LABS

• Configuration de l’environnement de Labs• Configuration du certificat de résolution AD• Options de sécurité pour Ambari

Jour 2 : Activation de Kerberos et installation d'Apache Ranger

OBJECTIFS DE LA JOURNÉE

• Configurer Ambari pour Kerberos• Configurer Hadoop pour Kerberos• Activer Kerberos• Comprendre les objectifs d’Apache Ranger• Comprendre l’architecture d’Apache Ranger• Lister les prérequis d’Apache Ranger• Décrire les objectifs d’Apache Ranger Rest API• Lister les configurations optionnelles d’Apache Ranger• Installer et configurer Apache Knox• Installer et configurer Apache Ranger

Programme domaine "BIG DATA"Date de téléchargement : 15/09/2018

40

Page 41: DATA SCIENCE - OCTO Academy · Statisticien Architecte Développeur Data scientist ... INTRODUCTION AU TEXT MINING • Un modèle de représentation : le bag of words ... Choisir

• Installer et configurer Ranger Key Management Services (KMS)• Décrire le cryptage HDFS avec Ranger KMS• Comprendre le but de la HDFS Encryption zone

LABS

• Kerbériser le cluster• Installer Apache Ranger• Configuration du chiffrement de données Apache Ranger KMS

Jour 3 : Accès sécurisé avec Ranger et aperçu / installation d'Apache Knox

OBJECTIFS DE LA JOURNÉE

• Décrire le processus d'intégration du plugin Apache Ranger avec :- HDFS- Hive- HBase- Knox- Storm

• Décrire la fonction et le but d'Apache Knox• Comprendre l’architecture d’Apache Knox• Installer et configurer Apache Knox• Comprendre les buts de Ambari Views• Configurer un serveur autonome Ambari View• Configurer Ambari Views pour Kerberos• Installer Kerberos pour :

- Files View- Tez View- Pig View- Hive View

LABS

• Exercices Hadoop sécurisés• Configurer Apache Knox• Explorer d’autres caractéristiques sécurité d’Apache Ambari

Programme domaine "BIG DATA"Date de téléchargement : 15/09/2018

41

Page 42: DATA SCIENCE - OCTO Academy · Statisticien Architecte Développeur Data scientist ... INTRODUCTION AU TEXT MINING • Un modèle de représentation : le bag of words ... Choisir

Analyse de données pour Hadoop 2.X Hortonworks avec Pig,Hive et SparkFormation Hadoop officielle Hortonworks "HDP Developer: Apache Pig and Hive"

Stage pratique en présentiel

HADOOP HORTONWORKS

Code :

HWAPH

Durée :

4 jours (28 heures)

Certification :

300 € HT

Exposés :

40%

Cas pratiques :

50%

Échanges d'expérience :

10%

Sessions à venir :

22 - 25 oct. 2018

Paris / 2 600 eur

Tarif & dates intra :

Sur demande

DESCRIPTION

Cette formation présente les grands outils de l’écosystème Hadoop en se

focalisant plus spécifiquement sur Pig et Hive (une demi-journée est

également consacrée à Spark). Le principal objectif est le développement de

compétences de data analyst orientées accès et traitement des données sans

nécessairement avoir un fort background technique.

OBJECTIFS PÉDAGOGIQUES

Identifier et définir les différents composants de l’écosystème Hadoop

Appréhender l’architecture de Hadoop 2.X

Expérimenter les outils d’exploration et d’analyse avancée de données

PUBLIC CIBLE

Analyste

Statisticien

Développeur

PRÉ-REQUIS

• Connaissances de base en scripting (SQL, Python, R) ou en

programmation.

MÉTHODE PÉDAGOGIQUE

Formation mêlant des apports théoriques à de nombreux travaux pratiques

sous forme d’exercices d’application et d’analyse de uses cases métier

complétés des retours d’expérience du formateur.

PROFILS DES INTERVENANTS

Toutes nos formations sont animées par des consultants-formateurs

expérimentés et reconnus par leurs pairs.

MODALITÉS D'ÉVALUATION ET FORMALISATION À L'ISSUE DELA FORMATION

L'évaluation des acquis se fait tout au long de la session au travers des

ateliers et des mises en pratique. Une évaluation à chaud sur la satisfaction

des stagiaires est réalisée systématiquement en fin de session et une

attestation de formation est délivrée aux participants mentionnant les objectifs

de la formation, la nature, le programme et la durée de l'action de formation

ainsi que la formalisation des acquis.

POUR ALLER PLUS LOIN :

• Site internet Hortonworks

• Livre blanc "Hadoop, feuille de route"

• Toutes nos formations Hadoop

• Formation officielle Hortonworks "Administrer la plateforme Hadoop 2.X

Programme domaine "BIG DATA"Date de téléchargement : 15/09/2018

42

Page 43: DATA SCIENCE - OCTO Academy · Statisticien Architecte Développeur Data scientist ... INTRODUCTION AU TEXT MINING • Un modèle de représentation : le bag of words ... Choisir

Hortonworks 1" (HDP Operations: Hadoop Administration 1) (HWADM)

• Formation officielle Hortonworks "Administrer la plateforme Hadoop 2.X

Hortonworks : niveau avancé" (HDP Administrator: Hadoop Administration 2)

(HWAD2)

• Formation officielle Hortonworks "Administrer la plateforme Hadoop 2.X

Hortonworks : sécurité" (HDP Operations: Security) (HWADS)

• Formation officielle Hortonworks "Développer des applications pour

Apache Spark avec Python ou Scala" (HDP Developer: Enterprise Spark 1)

(HWSPK)

• Toutes nos formations Data Science

• Formation "Fondamentaux de la Data Science" (DSFDX)

• Formation "Data Science : niveau avancé" (DSNVA)

Programme domaine "BIG DATA"Date de téléchargement : 15/09/2018

43

Page 44: DATA SCIENCE - OCTO Academy · Statisticien Architecte Développeur Data scientist ... INTRODUCTION AU TEXT MINING • Un modèle de représentation : le bag of words ... Choisir

Programme pédagogique détaillé par journée

Jour 1

COMPRENDRE HADOOP 2.X

• L’architecture de Hadoop 2.X• The Hortonworks Data Platform (HDP)

LE SYSTÈME DE FICHIERS DISTRIBUÉ HDFS

• Architecture fonctionnelle de HDFS- Exercice d’interaction en ligne de commande avec HDFS

ALIMENTER HDFS EN DONNÉES

• Prise en main de l’outil Flume• Prise en main de l’outil Sqoop

- Application de ces deux outils d’import et d’export des données

LE FRAMEWORK MAPREDUCE

• Architecture et fonctionnement général de MapReduce- Exemples d’utilisation d’un job MapReduce

• Présentation de Hadoop Streaming

Jour 2

INTRODUCTION À PIG

• Types et mots-clés dans Pig- Exploration de données avec Pig

PROGRAMMATION PIG AVANCÉE

• Mots-clés et fonctionnalités avancées dans Pig• Jointures dans Pig• Astuces d’optimisation de scripts Pig

- Analyse de cas d’usages métier divers avec Pig

Jour 3

PROGRAMMATION HIVE

• Types et mots-clés dans Hive• Concept de table et base de données dans Hive• Présentation et explication des types de jointures

- Démonstration de jointures- Analyse de cas d’usages métier

UTILISER HCATALOG

• Fonctionnement et utilisation de HCatalog- Démonstration du fonctionnement de HCatalog

Programme domaine "BIG DATA"Date de téléchargement : 15/09/2018

44

Page 45: DATA SCIENCE - OCTO Academy · Statisticien Architecte Développeur Data scientist ... INTRODUCTION AU TEXT MINING • Un modèle de représentation : le bag of words ... Choisir

Jour 4

PROGRAMMATION HIVE AVANCÉE

• Les vues dans Hive• Les différents formats de stockage des tables Hive• Optimisation de scripts Hive

- Illustration des fonctions avancées

HADOOP 2.X ET YARN

• Architecture de YARN- Démonstration d’une application YARN

APACHE SPARK

• Introduction à Spark• Programmation Spark (RDD, programmation fonctionnelle)

- Ecriture d’un job Spark en Python• Spark SQL et les DataFrames

- Utilisation de Spark SQL et des DataFrames sur des tables Hive et des fichiers HDFS

CRÉER ET UTILISER UN WORKFLOW OOZIE

• Workflow et coordinateur Oozie• Actions possibles avec Oozie

Programme domaine "BIG DATA"Date de téléchargement : 15/09/2018

45

Page 46: DATA SCIENCE - OCTO Academy · Statisticien Architecte Développeur Data scientist ... INTRODUCTION AU TEXT MINING • Un modèle de représentation : le bag of words ... Choisir

BEST Développer des applications pour Apache Spark avecPython ou Scala

Formation Hadoop officielle Hortonworks "HDP Developer: Enterprise Apache Spark I"

Stage pratique en présentiel

HADOOP HORTONWORKS

Code :

HWSPK

Durée :

4 jours (28 heures)

Certification :

300 € HT

Exposés :

40%

Cas pratiques :

50%

Échanges d'expérience :

10%

Sessions à venir :

15 - 18 oct. 2018

Paris / 2 600 eur

5 - 8 nov. 2018

Genève / 3 000 chf

17 - 20 déc. 2018

Paris / 2 600 eur

Tarif & dates intra :

Sur demande

DESCRIPTION

Spark est né en 2009 dans le laboratoire AMPLab de l’université de Berkeley.

Ce framework offre un modèle de programmation plus simple que celui du

MapReduce d’Hadoop et surtout plus rapide avec des temps d’exécution

jusqu’à 100 fois plus courts. Avec Spark, les développeurs peuvent écrire

simplement des applications distribuées complexes qui permettent de

prendre des meilleures décisions plus rapidement et des actions en temps

réel, appliquées à une grande variété de cas d’utilisations, d’architecture et de

secteurs d’activités.

Cette formation s’adresse aux développeurs qui souhaitent créer et déployer

des applications Big Data complètes et uniques en combinant batchs, le

streaming et analyses interactives sur l’ensemble des données.

OBJECTIFS PÉDAGOGIQUES

Identifier et définir les différents composants de l’écosystème Hadoop

Appréhender le fonctionnement de Spark

Développer des applications avec Apache Spark

Optimiser une application Spark

Utiliser Spark SQL et les dataframes

Faire de l’analyse en temps réel avec Spark streaming

Découvrir MLLib pour du machine learning sur Spark

Explorer, manipuler et visualiser votre donnée avec Zeppelin

PUBLIC CIBLE

Développeur d'applications avec des contraintes temps réel

Ingénieur d’études

Architecte technique

Chef de projet technique

PRÉ-REQUIS

• Connaissances de base en programmation ou en scripting (Python/Scala)

• Expérience basique en ligne de commande

• Aucune connaissance sur Hadoop n’est requise

• Connaissances en SQL et conception d'application temps réel utiles mais

non obligatoire

MÉTHODE PÉDAGOGIQUE

Formation avec apports théoriques, échanges sur les contextes des

participants et retours d’expérience pratique du formateur, complétés de

travaux pratiques et de mises en situation.

Cette formation prépare à la certification éditeur Hortonworks.

PROFILS DES INTERVENANTS

Toutes nos formations sont animées par des consultants-formateurs

expérimentés et reconnus par leurs pairs.

Programme domaine "BIG DATA"Date de téléchargement : 15/09/2018

46

Page 47: DATA SCIENCE - OCTO Academy · Statisticien Architecte Développeur Data scientist ... INTRODUCTION AU TEXT MINING • Un modèle de représentation : le bag of words ... Choisir

MODALITÉS D'ÉVALUATION ET FORMALISATION À L'ISSUE DELA FORMATION

L'évaluation des acquis se fait tout au long de la session au travers des

ateliers et des mises en pratique. Une évaluation à chaud sur la satisfaction

des stagiaires est réalisée systématiquement en fin de session et une

attestation de formation est délivrée aux participants mentionnant les objectifs

de la formation, la nature, le programme et la durée de l'action de formation

ainsi que la formalisation des acquis.

POUR ALLER PLUS LOIN :

• Site internet Hortonworks

• Livre blanc "Hadoop, feuille de route"

• Toutes nos formations Hadoop

• Formation officielle Hortonworks "Administrer la plateforme Hadoop 2.X

Hortonworks 1" (HDP Operations: Hadoop Administration 1) (HWADM)

• Formation officielle Hortonworks "Administrer la plateforme Hadoop 2.X

Hortonworks : niveau avancé" (HDP Administrator: Hadoop Administration 2)

(HWAD2)

• Formation officielle Hortonworks "Administrer la plateforme Hadoop 2.X

Hortonworks : sécurité" (HDP Operations: Security) (HWADS)

• Formation officielle Hortonworks "Analyse de données pour Hadoop 2.X

Hortonworks avec Pig, Hive et Spark" (HDP Developer: Apache Pig and Hive)

(HWAPH)

• Toutes nos formations Data Science

• Formation "Fondamentaux de la Data Science" (DSFDX)

• Formation "Data Science : niveau avancé" (DSNVA)

Programme domaine "BIG DATA"Date de téléchargement : 15/09/2018

47

Page 48: DATA SCIENCE - OCTO Academy · Statisticien Architecte Développeur Data scientist ... INTRODUCTION AU TEXT MINING • Un modèle de représentation : le bag of words ... Choisir

Programme pédagogique détaillé par journée

Jour 1

INTRODUCTION À HADOOP, HORTONWORKS ET AU BIG DATA

• Cas d’usage pour Hadoop• Qu’est-ce que Big Data ?• HDP, Hortonworks et l’écosystème Hadoop• Pourquoi utiliser Hortonworks ?

INTRODUCTION À APACHE SPARK

• Qu’est-ce que Spark et d’où vient-il ?• Pourquoi utiliser Spark ?• Spark vs MapReduce• L’évolution rapide de Spark et l’engagement d’Hortonworks

PROGRAMMER AVEC APACHE SPARK

• Les composants de Spark• Premiers pas avec Spark• Les RDD• Transformations et actions• Spark Hello World (wordcount)• Lazy evaluation• Mise en pratique: "Assurer ses premiers pas avec Apache Spark"

VUE D’ENSEMBLE DE HDFS ET YARN

• Vue d’ensemble de HDFS• Le Namenode et le Datanode• Vue d’ensemble de YARN• Composants cœur de YARN• Mise en pratique: "Utiliser les commandes HDFS"

PROGRAMMATION RDD AVANCÉE

• D’autres fonctions de RDD "cœur"• Fonctions de RDD paires• Utiliser la documentation de Spark• Mise en pratique : "Utiliser le stockage HDFS"

Jour 2

PROGRAMMATION PARALLÈLE AVEC SPARK

• Partitionnement, jobs, stage et tasks• L’UI de Spark• Changer le niveau de parrallélisation• Mise en pratique : Programmation parallèle sur Spark

CACHER ET PERSISTER LA DONNÉE

Programme domaine "BIG DATA"Date de téléchargement : 15/09/2018

48

Page 49: DATA SCIENCE - OCTO Academy · Statisticien Architecte Développeur Data scientist ... INTRODUCTION AU TEXT MINING • Un modèle de représentation : le bag of words ... Choisir

• Cache et persistance• Mise en pratique : "cacher et persister la donnée"• Exemple d’application itérative : PageRank• Checkpointing• Mise en pratique : "Checkpointing et RDD lineage"

CRÉER DES APPLICATIONS SPARK

• Créer une application à soumettre au cluster• Soumettre une application au cluster• Yarn client vs Yarn cluster• Points importants de configuration• Gérer/packager les dépendances• Mise en pratique : "Créer une application Spark standalone"

Jour 3

FONCTIONNALITÉS AVANCÉES ET AMÉLIORATION DES PERFORMANCES

• Accumulateurs• Mise en pratique : "Utiliser les accumulateurs pour vérifier la qualité des données"• Variables « broadcast »• Mise en pratique : "Utiliser les variables broadcast"• Partitionnement avancé et opérations• Point de départ pour l’optimisation

TRAVAILLER VOS DONNÉES AVEC ZEPPELIN

• L'exploration de données en Spark avec Zeppelin• Visualisation de données avec Zeppelin• Faire du reporting avec Zeppelin

SPARK SQL

• Les concepts de Spark SQL• Créer une Dataframe• Sauvegarder une Dataframe• Spark SQL et UDF• Mise en pratique : "Spark SQL avec utilisation d’UDF"• Mise en pratique : "Spark SQL avec Hive"

Jour 4

SPARK STREAMING

• L’architecture de Spark Streaming• Vue d’ensemble de Spark Streaming• Fiabilité des récepteurs et des sources• Transformations et opérations de sorties• Mise en pratique : "Wordcount en Spark Streaming"• Configurer le checkpointing

Programme domaine "BIG DATA"Date de téléchargement : 15/09/2018

49

Page 50: DATA SCIENCE - OCTO Academy · Statisticien Architecte Développeur Data scientist ... INTRODUCTION AU TEXT MINING • Un modèle de représentation : le bag of words ... Choisir

SPARK MLLIB

• Vue d’ensemble de MLLib• Apprentissage supervisé• Apprentissage non supervisé

Programme domaine "BIG DATA"Date de téléchargement : 15/09/2018

50

Page 51: DATA SCIENCE - OCTO Academy · Statisticien Architecte Développeur Data scientist ... INTRODUCTION AU TEXT MINING • Un modèle de représentation : le bag of words ... Choisir

BIG DATA

HADOOP CLOUDERA

Programme domaine "BIG DATA"Date de téléchargement : 15/09/2018

51

Page 52: DATA SCIENCE - OCTO Academy · Statisticien Architecte Développeur Data scientist ... INTRODUCTION AU TEXT MINING • Un modèle de représentation : le bag of words ... Choisir

BEST Développer des applications pour Spark avec HadoopCloudera

Formation officielle "Cloudera Developer Training for Spark and Hadoop"

Stage pratique en présentiel

HADOOP CLOUDERA

Code :

CLSPH

Durée :

4 jours (28 heures)

Certification :

300 € HT

Exposés :

40%

Cas pratiques :

50%

Échanges d'expérience :

10%

Sessions à venir :

8 - 11 oct. 2018

Paris / 2 695 eur

Tarif & dates intra :

Sur demande

DESCRIPTION

Apache Spark s’est imposé ces dernières années comme LE framework Big

Data de référence, et comme un outil central de l’écosystème Hadoop. Cette

formation intensive emmène le participant de la découverte de Spark jusqu’à

l’utilisation de ses fonctionnalités avancées.

La démarche pédagogique équilibre apports théoriques sur les structures

fondamentales Spark (RDD, DataFrame, DataSets) et de nombreux travaux

pratiques. Les participants manipulent la console interactive pour prototyper.

Ensuite, ils codent, déploient et monitorent des applications sur un cluster. Le

programme intègre les évolutions majeures de la nouvelle version Spark 2, et

des cas d’usages complexes de traitement en flux (streaming).

Au cours de la formation, un panorama de l’écosystème Hadoop est dressé,

en insistant sur les concepts essentiels des environnements distribués :

stockage sur HDFS, calcul avec Map-Reduce et gestion des ressources via

YARN.

Des compléments sur l’ingestion de données avec Sqoop et Kafka sont

proposés, afin que les participants maitrisent l’ensemble des outils nécessaires

pour développer des applications Spark. Ils disposent ainsi d’une expertise

complète pour préparer des données massives et les analyser sur un cluster

Hadoop.

OBJECTIFS PÉDAGOGIQUES

Identifier et utiliser les outils appropriés à chaque situation dans un

écosystème Hadoop

Utiliser Apache Spark et l’intégrer dans l’écosystème Hadoop

Utiliser Sqoop, Kafka, Flume, Hive et Impala

PUBLIC CIBLE

Développeur

Analyste

PRÉ-REQUIS

• Être à l’aise pour programmer dans l’un de ces langages : Scala et/ou

Python.

• Connaissance de base des lignes de commande Linux requise.

• La connaissance de base de SQL est un plus.

• Aucune expérience préalable avec Hadoop n’est nécessaire.

MÉTHODE PÉDAGOGIQUE

Formation avec apports théoriques, échanges sur les contextes des

participants et retours d’expérience pratique du formateur, complétés de

travaux pratiques et de mises en situation. Les exemples Apache Spark et les

Programme domaine "BIG DATA"Date de téléchargement : 15/09/2018

52

Page 53: DATA SCIENCE - OCTO Academy · Statisticien Architecte Développeur Data scientist ... INTRODUCTION AU TEXT MINING • Un modèle de représentation : le bag of words ... Choisir

exercices de "hands-on" sont présentés avec Scala et Python.

A la suite de la formation, les stagiaires auront la possibilité de passer

l’examen Certification « CCA Spark and Hadoop Developer » de Cloudera.

PROFILS DES INTERVENANTS

Toutes nos formations sont animées par des consultants-formateurs

expérimentés et reconnus par leurs pairs.

MODALITÉS D'ÉVALUATION ET FORMALISATION À L'ISSUE DELA FORMATION

L'évaluation des acquis se fait tout au long de la session au travers des

ateliers et des mises en pratique. Une évaluation à chaud sur la satisfaction

des stagiaires est réalisée systématiquement en fin de session et une

attestation de formation est délivrée aux participants mentionnant les objectifs

de la formation, la nature, le programme et la durée de l'action de formation

ainsi que la formalisation des acquis.

POUR ALLER PLUS LOIN :

• Site internet Cloudera

• Livre blanc "Hadoop, feuille de route"

• Toutes nos formations HADOOP HORTONWORKS

• Toutes nos formations sur la Data Science

Programme domaine "BIG DATA"Date de téléchargement : 15/09/2018

53

Page 54: DATA SCIENCE - OCTO Academy · Statisticien Architecte Développeur Data scientist ... INTRODUCTION AU TEXT MINING • Un modèle de représentation : le bag of words ... Choisir

Programme pédagogique détaillé par journée

Jour 1

INTRODUCTION À HADOOP ET À SON ÉCOSYSTÈME

• Introduction générale à Hadoop• Ingestion et stockage de données• Traitement de données• Exploration et analyse de données• Autres outils de l’écosystème• TP « Introduction. Exécuter des requêtes avec Impala »

HDFS : LE SYSTÈME DE FICHIERS HADOOP

• Les composants d’un cluster Hadoop• L’architecture d’HDFS• Utiliser HDFS• TP « Utiliser HDFS avec la ligne de commande et l’interface graphique HUE »

LE TRAITEMENT DISTRIBUÉ SUR UN CLUSTER HADDOP

• L’architecture de YARN• Travailler avec YARN• TP « Lancer des jobs YARN et les monitorer »

LES BASES DE SPARK

• Introduction à Spark• Démarrer et utiliser la console Spark• Introduction aux Datasets et DataFrames Spark• Les opérations sur les DataFrames• TP « Explorer des DataFrames avec la console Spark »

MANIPULATION DES DATAFRAMES ET DES SCHEMAS

• Créer des DataFrames depuis diverses sources de données• Sauvegarder des DataFrames• Les schémas des DataFrames• Exécution gloutonne et paresseuse de Spark• TP « Travailler avec des DataFrames et des schémas »

Jour 2

ANALYSER DES DONNÉES AVEC DES REQUÊTES SUR DATAFRAMES

• Requêter des DataFrames avec des expression sur les colonnes nommées• Les requêtes de groupement et d’aggrégation• Les jointures• TP « Analyser des données avec des requêtes sur les DataFrame »

LES RDD – STRUCTURE FONDAMENTALE DE SPARK

• Introduction aux RDD

Programme domaine "BIG DATA"Date de téléchargement : 15/09/2018

54

Page 55: DATA SCIENCE - OCTO Academy · Statisticien Architecte Développeur Data scientist ... INTRODUCTION AU TEXT MINING • Un modèle de représentation : le bag of words ... Choisir

• Les sources de données de RDD• Créer et sauvegarder des RDD• Les opérations sur les RDD• TP « Travailler avec des RDD »

TRANSFORMER LES DONNÉES AVEC DES RDD

• Écrire et passer des fonctions de transformation• Fonctionnement des transformations de Spark• Conversion entre RDD et DataFrames• TP « Transformer des données avec des RDD »

AGGREGATION DE DONNÉES AVEC LES RDD DE PAIRES

• Les RDD clé-valeur• Map-Reduce : Principe et usage dans Spark• Autres opérations sur les RDD de paires• TP « Joindre des données en utilisant des RDD de paires »

REQUÊTAGE DE TABLES ET DE VUES AVEC SPARK SQL

• Requêter des tables en Spark en utilisant SQL• Requêter des fichiers et des vues• L’API catalogue de Spark• Comparaison de Spark SQL, Impala et Hive-on-Spark• TP « Requêter des tables et des vues avec Spark SQL »

Jour 3

TRAVAILLER AVEC LES DATASETS SPARK EN SCALA

• Les différences entre Datasets et DataFrames• Créer des Datasets• Charger et sauvegarder des Datasets• Les opérations sur les datasets• TP « Travailler avec des Datasets en Scala »

ÉCRIRE, CONFIGURER ET LANCER DES APPLICATIONS SPARK

• Écrire une application Spark• Compiler et lancer une application• Le mode de déploiement d’une application• L’interface utilisateur web des applications Sparks• TP « Écrire, configurer et lancer une application Spark »

LE TRAITEMENT DISTRIBUÉ AVEC SPARK

• Rappels sur le fonctionnement de Spark avec YARN• Le partitionnement des données dans les RDD• Jobs, Étapes et Tâches• Le plan d’exécution, et l’optimisation avec Catalyst• TP « Suivre et explorer l’exécution de requêtes »

PERSISTANCE DE LA DONNÉE DISTRIBUÉE

Programme domaine "BIG DATA"Date de téléchargement : 15/09/2018

55

Page 56: DATA SCIENCE - OCTO Academy · Statisticien Architecte Développeur Data scientist ... INTRODUCTION AU TEXT MINING • Un modèle de représentation : le bag of words ... Choisir

• La persistance des DataFrames et des DataSets• Les niveaux de persistances• Voir les RDD persistés• TP « Persistance des données distribuées »

LES ALGORITHMES ITÉRATIFS AVEC SPARK

• D’autres cas d’usages courants de Spark• Les algorithmes itératifs en Spark• Machine Learning avec Spark• TP « Implémenter un algorithme itératif avec Spark »

Jour 4

SPARK STREAMING : LES FONDAMENTAUX

• Introduction à Spark Streaming• Les Dstreams• Développer des applications streaming• TP « Écrire une application streaming avec Spark »

SPARK STREAMING : TRAITEMENT MULTI-BATCH

• Les opérations multi-batch• Le découpage temporel• Les opérations à état• Les fenêtres glissantes• Introduction au streaming structuré• TP « Traiter des batchs multiples en streaming »

SPARK STREAMING : LES SOURCES DE DONNÉES

• Panorama des sources de données streaming• Flume et Kafka comme sources streaming• TP « Traiter en streming des messages Kafka »

Suppléments

IMPORTER DES DONNÉES RELATIONNELLES AVEC SQOOP

• Généralités sur Sqoop• Imports et Exports• TP « Importer de la données depuis MySQL avec Sqoop »

LE TRAITEMENT DE MESSAGES AVEC KAFKA

• Introduction à Kafka• Passer à l’échelle avec Kafka• L’architecture d’un cluster Kafka• La ligne de commande Kafka• TP « Produire et consommer des messages Kafka »

CAPTURER DES DONÉES AVEC FLUME

Programme domaine "BIG DATA"Date de téléchargement : 15/09/2018

56

Page 57: DATA SCIENCE - OCTO Academy · Statisticien Architecte Développeur Data scientist ... INTRODUCTION AU TEXT MINING • Un modèle de représentation : le bag of words ... Choisir

• Introduction à Flume• Architecture de Flume : Sources, Sinks et Channels• Configuration de Flume• TP « Collecter des logs de serveur web avec Flume »

INTEGRATION DE FLUME ET DE KAFKA (FLAFKA)

• Cas d’usage de l’intégration Flume/Kafka• Configuration• TP « Envoyer des messages de Flume à Kafka »

Programme domaine "BIG DATA"Date de téléchargement : 15/09/2018

57

Page 58: DATA SCIENCE - OCTO Academy · Statisticien Architecte Développeur Data scientist ... INTRODUCTION AU TEXT MINING • Un modèle de représentation : le bag of words ... Choisir

NEW Administrer la plateforme Hadoop ClouderaFormation officielle « Cloudera Administrator Training for Apache Hadoop »

Stage pratique en présentiel

HADOOP CLOUDERA

Code :

CLADM

Durée :

4 jours (28 heures)

Certification :

300 € HT

Exposés :

40%

Cas pratiques :

50%

Échanges d'expérience :

10%

Sessions à venir :

15 - 18 oct. 2018

Paris / 2 695 eur

Tarif & dates intra :

Sur demande

DESCRIPTION

Vous souhaitez exploiter le potentiel de vos données pour créer de la valeur

et développer votre activité. Avec Hadoop et son architecture flexible et

évolutive, vous pouvez stocker, traiter et analyser vos données à partir d’une

plateforme unique fonctionnant sur du matériel standard.

Dès sa création en 2008, Cloudera a lié son histoire à celle de l’écosystème

Hadoop. Avec ses fondations composées à 100 % de logiciels open source et

de standards ouverts, la plate-forme Cloudera vous assure un meilleur

contrôle des coûts, plus de souplesse et des résultats plus performants pour

votre organisation. CDH, la plate-forme open source de Cloudera, est ainsi

devenue la distribution la plus populaire de Hadoop.

De l’installation à la configuration en passant par l’équilibrage de charge et le

réglage, cette formation de quatre jours fournit aux participants une

compréhension complète de toutes les étapes nécessaires pour opérer et

maintenir un cluster Hadoop à l'aide de Cloudera Manager.

OBJECTIFS PÉDAGOGIQUES

Reposer les bases de l’environnement Hadoop, MapReduce, Spark et HDFS

Gérer un cluster avec les fonctionnalités de Cloudera Manager

Déterminer le matériel et l'infrastructure appropriés pour son cluster

Configurer et déployer correctement le cluster pour l'intégration avec le

système d’information

Charger des données dans le cluster à partir de fichiers générés

dynamiquement à l'aide de Flume, ou à partir de SGBDR en utilisant Sqoop

Configurer FairScheduler pour répartir les ressources entre plusieurs

utilisateurs d'un cluster

Préparer et maintenir Apache Hadoop en production en utilisant les bonnes

pratiques

Dépanner, diagnostiquer, mettre au point et résoudre les problèmes sur

Hadoop

PUBLIC CIBLE

Administrateur système

Responsable informatique

Architecte système

Développeur

Analyste de données

Administrateur de bases de données

PRÉ-REQUIS

• Connaissance de base de la ligne de commande Linux

MÉTHODE PÉDAGOGIQUE

Programme domaine "BIG DATA"Date de téléchargement : 15/09/2018

58

Page 59: DATA SCIENCE - OCTO Academy · Statisticien Architecte Développeur Data scientist ... INTRODUCTION AU TEXT MINING • Un modèle de représentation : le bag of words ... Choisir

Formation avec apports théoriques, échanges sur les contextes des

participants et retours d’expérience pratique du formateur, complétés de

travaux pratiques et de mises en situation.

Cette formation permet de préparer l'examen associé au titre de la

certification « Cloudera Certified Associate Administrator ».

PROFILS DES INTERVENANTS

Toutes nos formations sont animées par des consultants-formateurs

expérimentés et reconnus par leurs pairs.

MODALITÉS D'ÉVALUATION ET FORMALISATION À L'ISSUE DELA FORMATION

L'évaluation des acquis se fait tout au long de la session au travers des

ateliers et des mises en pratique. Une évaluation à chaud sur la satisfaction

des stagiaires est réalisée systématiquement en fin de session et une

attestation de formation est délivrée aux participants mentionnant les objectifs

de la formation, la nature, le programme et la durée de l'action de formation

ainsi que la formalisation des acquis.

POUR ALLER PLUS LOIN :

• Site internet de Cloudera

• Formation "Spark avec Hadoop pour développeurs de Cloudera"

• Livre blanc "Hadoop, feuille de route"

• Formation "Cloudera Data Analyst : utiliser Pig, Hive et Impala avec

Hadoop"

• Toutes nos formations HADOOP HORTONWORKS

• Toutes nos formations sur la Data Science

Programme domaine "BIG DATA"Date de téléchargement : 15/09/2018

59

Page 60: DATA SCIENCE - OCTO Academy · Statisticien Architecte Développeur Data scientist ... INTRODUCTION AU TEXT MINING • Un modèle de représentation : le bag of words ... Choisir

Programme pédagogique détaillé par journée

Jour 1

Introduction

PRÉSENTATION D’APACHE HADOOP

• Pourquoi Hadoop• Concepts et fondamentaux• Principaux composants d’Hadoop

INSTALLATION DU CLUSTER HADOOP

• Avantage d’une solution de gestion de Cluster• Fonctionnalités de Cloudera Manager• Installation de Cloudera Manager• Installation d’Hadoop (CDH)

LE SYSTÈME DE FICHIERS DISTRIBUÉS HADOOP (HDFS)

• Fonctionnalités de HDFS• Écriture et lecture de fichiers• Considérations relatives à la mémoire du NameNode• Vue d'ensemble sur la sécurité dans HDFS• IU Web pour HDFS• Utilisation de Hadoop File Shell

MAPREDUCE ET SPARK SUR YARN

• Le rôle des frameworks• YARN outil de gestion de clusters• Les concepts de MapReduce• Les concepts d’Apache Spark• Exécution de frameworks sur YARN• Exploration des applications YARN via les IU Web et la ligne de commande• Les logs d’application de YARN

JOUR 2

CONFIGURATION DE HADOOP ET DU JOURNAL DE LOGS

• Gérer les configurations avec Cloudera Manager Constructs• Appliquer des changements de configuration• Gérer des instances et ajouter des services• Configurer le service HDFS• Configurer les journaux de logs Hadoop• Configurer le service YARN

OBTENIR DES DONNÉES DANS HDFS

• Ingestion de données à partir de sources externes avec Flume• Ingestion de données à partir de bases de données relationnelles avec Sqoop

Programme domaine "BIG DATA"Date de téléchargement : 15/09/2018

60

Page 61: DATA SCIENCE - OCTO Academy · Statisticien Architecte Développeur Data scientist ... INTRODUCTION AU TEXT MINING • Un modèle de représentation : le bag of words ... Choisir

• Les interfaces REST• Les meilleures pratiques pour l'importation de données

DIMENSIONNEMENT DE VOTRE CLUSTER HADOOP

• Considérations générales relatives au dimensionnement• Choix du matériel• Options de virtualisation• Considérations sur le réseau• Configuration des noeuds

JOUR 3

INSTALLATION ET CONFIGURATION DE HIVE, IMPALA ET PIG

• Installer et configurer Hive• Installer et configurer Impala• Installer et configurer Pig

CLIENTS HADOOP ET HUE

• Clients Hadoop• Installation et configuration des clients Hadoop• Installation et configuration de Hue• Authentification et autorisation avec Hue

CONFIGURATION AVANCÉE DU CLUSTER

• Paramètres avancés de configuration• Configurer les ports Hadoop• Configuration de HDFS pour la Rack Awareness• Configuration de la haute disponibilité HDFS

JOUR 4

LES ENJEUX DE LA SÉCURITÉ DANS HADOOP

• Pourquoi la sécurité Hadoop est-elle importante• Concepts du système de sécurité de Hadoop• Présentation de Kerberos et de son fonctionnement• Sécurisation d'un cluster Hadoop avec Kerberos• Autres concepts de sécurité

GESTION DES RESSOURCES

• Configuration de cgroups avec des centres de services statiques• Méthode « Fair Scheduler »• Configuration des centres de ressources dynamiques• Réglage mémoire et CPU pour YARN• Planification des requêtes avec Impala

ENTRETIEN DU CLUSTER

• Vérification du statut HDFS

Programme domaine "BIG DATA"Date de téléchargement : 15/09/2018

61

Page 62: DATA SCIENCE - OCTO Academy · Statisticien Architecte Développeur Data scientist ... INTRODUCTION AU TEXT MINING • Un modèle de représentation : le bag of words ... Choisir

• Copier les données entre clusters• Ajout et suppression de noeuds de cluster• Rééquilibrage du cluster• Snapshots de répertoires• Mise à niveau du cluster

MONITORING ET DÉPANNAGE DU CLUSTER

• Fonctionnalités de monitoring de Cloudera Manager• Monitoring des Clusters Hadoop• Dépannage des Clusters Hadoop• Mauvaises configurations les plus fréquentes

Programme domaine "BIG DATA"Date de téléchargement : 15/09/2018

62

Page 63: DATA SCIENCE - OCTO Academy · Statisticien Architecte Développeur Data scientist ... INTRODUCTION AU TEXT MINING • Un modèle de représentation : le bag of words ... Choisir

NEW Cloudera Data Analyst : utiliser Pig, Hive et Impala avecHadoop

Formation officielle « Cloudera Data Analyst Training: using Pig, Hive, and Impala withHadoop »

Stage pratique en présentiel

HADOOP CLOUDERA

Code :

CLANA

Durée :

4 jours (28 heures)

Certification :

300 € HT

Exposés :

10%

Cas pratiques :

80%

Échanges d'expérience :

10%

Sessions à venir :

10 - 13 déc. 2018

Paris / 2 695 eur

Tarif & dates intra :

Sur demande

DESCRIPTION

Cloudera propose aux professionnels de la donnée les outils les plus

performants pour accéder, manipuler, transformer et analyser des ensembles

de données complexes, en utilisant SQL et les langages de script les plus

courants.

Au cours de cette formation Data Analyst, vous apprendrez à appliquer vos

compétences d'analyse de données et de business intelligence aux grands

outils de données comme Apache Impala (en incubation), Apache Hive et

Apache Pig.

Apache Pig apporte à Hadoop les capacités des langages de script familiers.

Apache Hive, par l'intermédiaire de son langage HiveQL proche du SQL,

permet la transformation et l'analyse de données complexes et multi-

structurées évolutives dans Hadoop. Enfin, Cloudera Impala permet l'analyse

interactive instantanée des données stockées dans Hadoop dans un

environnement SQL natif.

Ensemble, Pig, Hive et Impala rendent les données multi-structurées

accessibles aux analystes, aux administrateurs de base de données et à

d'autres utilisateurs, sans nécessité de connaître la programmation Java.

OBJECTIFS PÉDAGOGIQUES

Acquérir, stocker et analyser des données à l'aide de Pig, Hive et Impala

Effectuer des tâches fondamentales d'ETL avec les outils Hadoop (extraire,

transformer et charger) : ingestion et traitement avec Hadoop

Utiliser Pig, Hive et Impala pour améliorer la productivité sur les tâches

d'analyse typiques

Relier des jeux de données de diverses provenances pour obtenir une

meilleure connaissance commerciale

Effectuer des requêtes complexes sur les jeux de données

PUBLIC CIBLE

Analystes de données

Spécialiste de la business intelligence

Développeur

Architectes système

Administrateur de bases de données

PRÉ-REQUIS

• Connaissance de SQL.

• Connaissance de base des lignes de commandes Linux.

• Connaissance préalable d'Apache Hadoop non requise.

• Connaissance d'un langage de script (comme Bash scripting, Perl, Python

Programme domaine "BIG DATA"Date de téléchargement : 15/09/2018

63

Page 64: DATA SCIENCE - OCTO Academy · Statisticien Architecte Développeur Data scientist ... INTRODUCTION AU TEXT MINING • Un modèle de représentation : le bag of words ... Choisir

ou Ruby) est utile, mais pas indispensable.

MÉTHODE PÉDAGOGIQUE

Formation avec apports théoriques, échanges sur les contextes des

participants et retours d’expérience pratique du formateur, complétés de

travaux pratiques et de mises en situation.

Cette formation permet de préparer l'examen associé au titre de la

certification « Cloudera Certified Associate Data Analyst » attestant des

compétences acquises. La certification se déroule en dehors du temps de

formation.

PROFILS DES INTERVENANTS

Toutes nos formations sont animées par des consultants-formateurs

expérimentés et reconnus par leurs pairs.

MODALITÉS D'ÉVALUATION ET FORMALISATION À L'ISSUE DELA FORMATION

L'évaluation des acquis se fait tout au long de la session au travers des

ateliers et des mises en pratique. Une évaluation à chaud sur la satisfaction

des stagiaires est réalisée systématiquement en fin de session et une

attestation de formation est délivrée aux participants mentionnant les objectifs

de la formation, la nature, le programme et la durée de l'action de formation

ainsi que la formalisation des acquis.

POUR ALLER PLUS LOIN :

• Site internet de Cloudera

• Formation "Spark avec Hadoop pour développeurs de Cloudera"

• Formation "Administrer la plateforme Hadoop Cloudera"

• Livre blanc "Hadoop, feuille de route"

• Toutes nos formations HADOOP HORTONWORKS

• Toutes nos formations sur la Data Science

Programme domaine "BIG DATA"Date de téléchargement : 15/09/2018

64

Page 65: DATA SCIENCE - OCTO Academy · Statisticien Architecte Développeur Data scientist ... INTRODUCTION AU TEXT MINING • Un modèle de représentation : le bag of words ... Choisir

Programme pédagogique détaillé par journée

Jour 1

Introduction

LES FONDAMENTAUX D’HADOOP

• Pourquoi choisir Hadoop ?• Présentation d’Hadoop• Stockage de données : HDFS• Traitement des données distribuées : YARN, MapReduce et Spark• Traitement et analyse des données : Pig, Hive et Impala• Intégration de base de données : Sqoop• Les autres outils Hadoop• Présentation des exercices

INTRODUCTION À PIG

• Présentation de Pig• Les fonctionnalités de Pig• Cas d’utilisation de Pig• Interagir avec Pig

ANALYSE BASIQUE DE DONNÉES AVEC PIG

• La syntaxe Pig Latin• Chargement des données• Types de données simples• Définitions de champs• Sortie de données• Affichage du schéma• Filtrage et tri des données• Fonctions couramment utilisées

TRAITEMENT DES DONNÉES COMPLEXES AVEC PIG

• Formats de stockage• Types de données complexes / imbriquées• Regroupement• Fonctions intégrées pour les données complexes• Itération sur les données groupées

MANIPULATION DE PLUSIEURS JEUX DE DONNÉES AVEC PIG

• Techniques de combinaison de jeux de données• Jointure de jeux de données dans Pig• Opérations ensemblistes• Diviser des jeux de données

DÉBOGAGE DE PIG ET OPTIMISATION

• Débogage• Journalisation

Programme domaine "BIG DATA"Date de téléchargement : 15/09/2018

65

Page 66: DATA SCIENCE - OCTO Academy · Statisticien Architecte Développeur Data scientist ... INTRODUCTION AU TEXT MINING • Un modèle de représentation : le bag of words ... Choisir

• Utilisation de l'interface utilisateur web d'Hadoop• Échantillonnage de données et débogage• Vue d’ensemble de la performance• Comprendre le plan d'exécution• Conseils pour améliorer la performance des jobs de Pig

Jour 2

INTRODUCTION À HIVE ET À IMPALA

• Présentation de Hive• Présentation d'Impala• Pourquoi utiliser Hive et Impala?• Schéma et stockage de données• Comparaison de Hive et Impala avec les bases de données traditionnelles• Cas d'utilisation

REQUÊTES AVEC HIVE ET IMPALA

• Bases de données et tables• Syntaxe de base des langages de requête Hive et Impala• Types de données• Utilisation de Hue pour exécuter des requêtes• Utilisation de Beeline (Shell Hive)• Utilisation de Impala Shell

GESTION DES DONNÉES AVEC HIVE ET IMPALA

• Stockage de données• Création de bases de données et de tables• Chargement des données• Modification des bases de données et des tables• Simplification des requêtes au moyen de vues• Enregistrement des résultats de requêtes

Jour 3

STOCKAGE DE DONNÉES ET PERFORMANCES

• Tables partitionnées• Chargement des données dans des tables partitionnées• Quand utiliser le partitionnement• Choisir un format de fichier• Utilisation des formats de fichier Avro et Parquet

ANALYSE RELATIONNELLE DE DONNÉES AVEC HIVE ET IMPALA

• Jointure de jeux de données• Fonctions communes intégrées• Agrégation et fenêtrage

DONNÉES COMPLEXES AVEC HIVE ET IMPALA

Programme domaine "BIG DATA"Date de téléchargement : 15/09/2018

66

Page 67: DATA SCIENCE - OCTO Academy · Statisticien Architecte Développeur Data scientist ... INTRODUCTION AU TEXT MINING • Un modèle de représentation : le bag of words ... Choisir

• Données complexes avec Hive• Données complexes avec Impala

ANALYSE DE TEXTE AVEC HIVE ET IMPALA

• Utilisation d'expressions régulières avec Hive et Impala• Traitement des données textuelles dans Hive avec des SerDes• Analyse de sentiment et n-grams

Jour 4

OPTIMISATION DE HIVE

• Comprendre les performances des requêtes• Bucketing• Indexation des données• Hive sur Spark

OPTIMISATION D’IMPALA

• Exécution de requête avec Impala• Améliorer la performance d’Impala

EXTENSION DE HIVE ET D’IMPALA

• SerDes et formats de fichier personnalisés dans Hive• Transformation de données avec des scripts personnalisés dans Hive• Fonctions définies par l'utilisateur• Requêtes paramétrées

CHOISIR LE MEILLEUR OUTIL

• Comparaison de Pig, Hive, Impala et des bases de données relationnelles• Critères de choix

CLÔTURE DE LA SESSION

Programme domaine "BIG DATA"Date de téléchargement : 15/09/2018

67

Page 68: DATA SCIENCE - OCTO Academy · Statisticien Architecte Développeur Data scientist ... INTRODUCTION AU TEXT MINING • Un modèle de représentation : le bag of words ... Choisir

BIG DATA

SPARK DATABRICKS

Programme domaine "BIG DATA"Date de téléchargement : 15/09/2018

68

Page 69: DATA SCIENCE - OCTO Academy · Statisticien Architecte Développeur Data scientist ... INTRODUCTION AU TEXT MINING • Un modèle de représentation : le bag of words ... Choisir

EXCLU Programmer avec Apache Spark de DatabricksFormation officielle Databricks « Apache® Spark™ Programming SPARK 105 »

Stage pratique en présentiel

SPARK DATABRICKS

Code :

SP105

Durée :

3 jours (21 heures)

Exposés :

40%

Cas pratiques :

50%

Échanges d'expérience :

10%

Sessions à venir :

24 - 26 oct. 2018

Paris / 2 300 eur

12 - 14 déc. 2018

Paris / 2 300 eur

Tarif & dates intra :

Sur demande

DESCRIPTION

Cette formation de 3 jours propose un panorama pratique de la solution

Apache Spark en alternant des présentations et des exercices pratiques. Elle

couvre les APIs de base de Spark, les fondamentaux et les mécanismes du

framework, mais aussi les outils plus haut-niveau dont SQL, ainsi que ses

capacités de traitement en streaming et l’API de machine learning.

Chaque sujet couvert comprend une partie d’exposé couplée à une mise en

pratique de Spark au travers d’un environnement type notebook web. Inspiré

d’outils tels IPython/Jupyter, les notebooks permettent aux participants de

développer des jobs, des requêtes d’analyse et des représentations visuelles

s’appuyant sur leur propre cluster Spark, le tout depuis leur navigateur web.

A l’issue du cours, les notebooks peuvent être conservés et être réutilisés

dans le service cloud gratuit Databricks Community Edition, pour lequel la

compatibilité est garantie. Il est également possible d’exporter le notebook

sous forme de code source pour exécution sur n’importe quel environnement

Spark.

OBJECTIFS PÉDAGOGIQUES

Décrire les fondamentaux de Spark

Exploiter les APIs de base de Spark pour manipuler des données

Concevoir et implémenter des cas d’usage typiques de Spark

Construire des pipelines de données et requêter de larges jeux de données

grâce à Spark SQL et aux DataFrames

Analyser les jobs Sparks à l’aide des interfaces d’administration et des logs au

sein des environnements Databricks

Créer des jobs de type Structured Streaming et Machine Learning

Découvrir les bases du fonctionnement interne de Spark

PUBLIC CIBLE

Data engineers et data analysts ayant l’expérience des traitements Big Data,

qui souhaitent apprendre à utiliser Apache Spark pour effectuer leurs

traitements Big Data, construire des jobs Spark à destination de la production

et comprendre mais aussi déboguer des applications Spark.

PRÉ-REQUIS

• Une première expérience avec Apache Spark est conseillée

• Avoir utilisé les Spark DataFrames dans des cas simples est souhaitable

• Une expérience de programmation en langage objet ou fonctionnel est

nécessaire

MÉTHODE PÉDAGOGIQUE

Formation avec apports théoriques, échanges sur les contextes des

participants et retours d’expérience du formateur, complétés de travaux

pratiques et de mises en situation.

Programme domaine "BIG DATA"Date de téléchargement : 15/09/2018

69

Page 70: DATA SCIENCE - OCTO Academy · Statisticien Architecte Développeur Data scientist ... INTRODUCTION AU TEXT MINING • Un modèle de représentation : le bag of words ... Choisir

La formation mélange les langages Python et Scala.

PROFILS DES INTERVENANTS

Toutes nos formations sont animées par des consultants-formateurs

expérimentés et reconnus par leurs pairs.

MODALITÉS D'ÉVALUATION ET FORMALISATION À L'ISSUE DELA FORMATION

L'évaluation des acquis se fait tout au long de la session au travers des

ateliers et des mises en pratique. Une évaluation à chaud sur la satisfaction

des stagiaires est réalisée systématiquement en fin de session et une

attestation de formation est délivrée aux participants mentionnant les objectifs

de la formation, la nature, le programme et la durée de l'action de formation

ainsi que la formalisation des acquis.

Programme domaine "BIG DATA"Date de téléchargement : 15/09/2018

70

Page 71: DATA SCIENCE - OCTO Academy · Statisticien Architecte Développeur Data scientist ... INTRODUCTION AU TEXT MINING • Un modèle de représentation : le bag of words ... Choisir

Programme pédagogique détaillé par journée

Jour 1

APERÇU DE SPARK

• Exposés- Aperçu de Databricks- Fonctionnalités de Spark et de son écosystème- Composants de base

• Exercices pratiques- Environnement Databricks- Travailler avec des Notebooks- Fichiers et clusters Spark

SPARK SQL ET DATAFRAMES

• Exposés- Cas d’usages de Spark SQL et des DataFrames- APIs DataFrames / SQL- Optimisation de requêtes Catalyst- ETL

• Exercices pratiques- Créer des DataFrames- Requêter à l’aide des DataFrames et de SQL- ETL avec des DataFrames- Cache- Visualisation

Jour 2

FONCTIONNEMENT INTERNE DE SPARK

• Exposés- Jobs, Stages et Tasks- Partitions et Shuffling- Localité de la donnée- Performance des Jobs

• Exercices pratiques- Visualisation des requêtes SQL- Observer l’exécution des Tasks- Comprendre la performance- Mesurer l’utilisation mémoire

STRUCTURED STREAMING

• Exposés- Streaming sources et Sinks- APIs Structured Streaming- Windowing- Checkpointing et Watermarking

Programme domaine "BIG DATA"Date de téléchargement : 15/09/2018

71

Page 72: DATA SCIENCE - OCTO Academy · Statisticien Architecte Développeur Data scientist ... INTRODUCTION AU TEXT MINING • Un modèle de représentation : le bag of words ... Choisir

- Streaming des DataFrames- Robustesse et tolérance aux pannes

• Exercices pratiques- Lire depuis TCP- Lire depuis Kafka- Visualisation en continu

Jour 3

MACHINE LEARNING

• Exposés- API Spark MLlib Pipeline- Création de features et algorithmes fournis

• Exercices pratiques- K-Means- Régression logistique

TRAITEMENTS ORIENTÉS GRAPHES AVEC GRAPHFRAMES

• Exposés- Analyse simple de graphes- API GraphFrames- Trouver des motifs GraphFrames- Persistance des données de graphes

• Exercices pratiques- ETL avec GraphFrames- Analyse du Property Graph GraphFrames

BILAN ET CLÔTURE DE LA FORMATION

Programme domaine "BIG DATA"Date de téléchargement : 15/09/2018

72

Page 73: DATA SCIENCE - OCTO Academy · Statisticien Architecte Développeur Data scientist ... INTRODUCTION AU TEXT MINING • Un modèle de représentation : le bag of words ... Choisir

BIG DATA

NOSQL

Programme domaine "BIG DATA"Date de téléchargement : 15/09/2018

73

Page 74: DATA SCIENCE - OCTO Academy · Statisticien Architecte Développeur Data scientist ... INTRODUCTION AU TEXT MINING • Un modèle de représentation : le bag of words ... Choisir

BEST NoSQL : découverte des solutions et architecture de ladonnée

Séminaire en présentiel

NOSQL

Code :

SQLNO

Durée :

2 jours (14 heures)

Exposés :

60%

Cas pratiques :

20%

Échanges d'expérience :

20%

Sessions à venir :

16 - 17 oct. 2018

Paris / 2 020 eur

Tarif & dates intra :

Sur demande

DESCRIPTION

Les avancées technologiques de ces dernières années permettent

d’accompagner l’augmentation des volumes de données structurées et non

structurées. Les limites techniques auxquelles les systèmes relationnels

étaient une réponse ne sont plus d’actualité : volume de données en ligne

(Transactional Processing), disponibilité des systèmes, temps réel,

démocratisation du cloud, etc. Par ailleurs, la donnée qui était hier une

commodité opérationnelle est devenue un enjeu business pour de nouvelles

opportunités : exploration de la donnée, data science, etc. Nous vous

proposons de découvrir l’écosystème des nouvelles architectures de la

donnée bâties autour des solutions dites NoSQL afin d’en appréhender leurs

caractéristiques propres et cas d’usage associés : Couchbase, MongoDB,

ElasticSearch, Cassandra, etc.

OBJECTIFS PÉDAGOGIQUES

Appréhender les notions relatives aux systèmes distribués et à la donnée

(cohérence, théorème de CAP, etc.)

Découvrir l’écosystème NoSQL

Parcourir les caractéristiques des différentes solutions NoSQL (MongoDB,

Cassandra, Couchbase, ElasticSearch, etc.)

Identifier les différents cas d’usage de la donnée

Observer les plateformes de streaming de la donnée (Storm, Spark, etc.) et

l’écosystème Hadoop

PUBLIC CIBLE

DSI

Directeur de projet

Chef de projet

Architecte (Logiciel/Entreprise/Technique)

Développeur

PRÉ-REQUIS

• Connaissance des architectures applicatives traditionnelles avec SGBDR.

MÉTHODE PÉDAGOGIQUE

Formation avec démarche pratique, échanges sur les contextes des

participants et retours d’expérience pratique du formateur, complétés de

démonstrations.

PROFILS DES INTERVENANTS

Toutes nos formations sont animées par des consultants-formateurs

expérimentés et reconnus par leurs pairs.

MODALITÉS D'ÉVALUATION ET FORMALISATION À L'ISSUE DELA FORMATION

Programme domaine "BIG DATA"Date de téléchargement : 15/09/2018

74

Page 75: DATA SCIENCE - OCTO Academy · Statisticien Architecte Développeur Data scientist ... INTRODUCTION AU TEXT MINING • Un modèle de représentation : le bag of words ... Choisir

L'évaluation des acquis se fait tout au long de la session au travers des

ateliers et des mises en pratique. Une évaluation à chaud sur la satisfaction

des stagiaires est réalisée systématiquement en fin de session et une

attestation de formation est délivrée aux participants mentionnant les objectifs

de la formation, la nature, le programme et la durée de l'action de formation

ainsi que la formalisation des acquis.

POUR ALLER PLUS LOIN :

• Toutes nos formations NoSQL

• Formation officielle "Programmer avec Apache Spark de Databricks"

• Formation officielle "Déployer et gérer un cluster Couchbase" (Couchbase

NoSQL Server Administration) (CS300)

• Formation officielle Couchbase "Requêtes, modélisation de données,

optimisation et migration via N1QL" (Querying, Modeling, Tuning, and

Migrating Data using N1QL) (CD210)

• Formation "Gérer efficacement ses logs avec la stack ELK : ElasticSearch –

Logstash – Kibana" (ELK01)

• Formation "Concevoir un moteur de recherche avec Elasticsearch :

Dimensionnement - Administration - Recherche" (ELAS2)

Programme domaine "BIG DATA"Date de téléchargement : 15/09/2018

75

Page 76: DATA SCIENCE - OCTO Academy · Statisticien Architecte Développeur Data scientist ... INTRODUCTION AU TEXT MINING • Un modèle de représentation : le bag of words ... Choisir

Programme pédagogique détaillé par journée

Jour 1

HISTORIQUE DE LA BASE DE DONNÉES JUSQU'À L’APPARITION DU NOSQL

• Forme normale des bases de données relationnelles• Baisse des coûts hardware• Notion de "Transaction"• Systèmes distribués et disponibilité prennent le dessus sur la cohérence (CAP)• Introduction au NoSQL : "Not only SQL"• Définition "Réplication"• Définition "Sharding"

LES FAMILLES DE BASE DE DONNÉES NOSQL

• Key-value• Document• Graph• Colonne

LE MONDE HADOOP

FOCUS SUR L’OFFRE COLONNE AVEC CASSANDRA

• Présentation générale, architecture et cas d’utilisation• Séries temporelles, objets connectés• Frameworks de traitement distribué• Cas pratique d’application : "Cassandra et Spark streaming"

Jour 2

FOCUS SUR L’OFFRE CLÉ-VALEUR ET DOCUMENT AVEC COUCHBASE ET MONGODB

• Présentation générale, architecture et cas d’utilisation• Cas pratique d’application : "Couchbase et MongoDB"

SEARCH - FÉDÉRATION DE DONNÉES

• Présentation de l’offre Elasticsearch• Cas pratique d’application : "Elasticsearch"

BILAN ET PERSPECTIVES

• Feedback des participants• Recommandations et élaboration du plan d’action individuel• Conclusion• Questions / Réponses

Programme domaine "BIG DATA"Date de téléchargement : 15/09/2018

76

Page 77: DATA SCIENCE - OCTO Academy · Statisticien Architecte Développeur Data scientist ... INTRODUCTION AU TEXT MINING • Un modèle de représentation : le bag of words ... Choisir

Déployer et gérer un cluster CouchbaseFormation officielle "Couchbase NoSQL Server Administration"

Stage pratique en présentiel

NOSQL

Code :

CS300

Durée :

4 jours (28 heures)

Exposés :

30%

Cas pratiques :

70%

Sessions à venir :

3 - 6 déc. 2018

Paris / 2 795 eur

Tarif & dates intra :

Sur demande

DESCRIPTION

Cette formation Couchbase pour administrateurs apportera aux participants

les concepts architecturaux et l’expertise nécessaire à la définition, au

déploiement, et à l’opération de clusters Couchbase. Ils découvriront et

expérimenteront les procédures et outils dont un administrateur a besoin pour

opérer des plateformes critiques et temps-réel utilisant Couchbase.

OBJECTIFS PÉDAGOGIQUES

Installer et configurer un cluster Couchbase

Lancer des tests de charge sur un cluster, et le monitorer

Savoir partitionner et rééquilibrer un cluster, ajouter et supprimer des nœuds,

réaliser un backup et une restauration

Résoudre les problèmes courants (trouble shooting)

PUBLIC CIBLE

Architecte NoSQL

Futur administrateur

Couchbase

Administrateur système

Développeur

PRÉ-REQUIS

• Expérience en administration système (*nix), ou DBA.

• Connaissance des bases de données relationnelles.

• Aisance avec l’anglais écrit.

MÉTHODE PÉDAGOGIQUE

Formation rythmée par des apports théoriques et des ateliers de mise en

pratique. Chaque participant crée son propre cluster trois nœuds pleinement

fonctionnel, répliqué sur un autre cluster d’un autre Datacenter.

PROFILS DES INTERVENANTS

Toutes nos formations sont animées par des consultants-formateurs

expérimentés et reconnus par leurs pairs.

MODALITÉS D'ÉVALUATION ET FORMALISATION À L'ISSUE DELA FORMATION

L'évaluation des acquis se fait tout au long de la session au travers des

ateliers et des mises en pratique. Une évaluation à chaud sur la satisfaction

des stagiaires est réalisée systématiquement en fin de session et une

attestation de formation est délivrée aux participants mentionnant les objectifs

de la formation, la nature, le programme et la durée de l'action de formation

ainsi que la formalisation des acquis.

POUR ALLER PLUS LOIN :

• Toutes nos formations NoSQL

Programme domaine "BIG DATA"Date de téléchargement : 15/09/2018

77

Page 78: DATA SCIENCE - OCTO Academy · Statisticien Architecte Développeur Data scientist ... INTRODUCTION AU TEXT MINING • Un modèle de représentation : le bag of words ... Choisir

• Formation officielle Couchbase "Requêtes, modélisation de données,

optimisation et migration via N1QL" (Querying, Modeling, Tuning, and

Migrating Data using N1QL) (CD210)

• Formation "Concevoir un moteur de recherche avec Elasticsearch :

Dimensionnement - Administration - Recherche" (ELAS2)

Programme domaine "BIG DATA"Date de téléchargement : 15/09/2018

78

Page 79: DATA SCIENCE - OCTO Academy · Statisticien Architecte Développeur Data scientist ... INTRODUCTION AU TEXT MINING • Un modèle de représentation : le bag of words ... Choisir

Programme pédagogique détaillé par journée

Jour 1

APERÇU DE L’ARCHITECTURE ET DES POSSIBILITÉS DE COUCHBASE SERVER 4.0

PRINCIPAUX CAS D’UTILISATION DE COUCHBASE

GUIDE DE DIMENSIONNEMENT EN FONCTION DE LA CHARGE

GUIDE D’INSTALLATION ET BONNES PRATIQUES DE CONFIGURATION

MONTÉE DE VERSION DE COUCHBASE EN PRODUCTION

Jour 2

LES VBUCKETS

MOTEUR DE STOCKAGE : CACHE, PERSISTENCE SUR LE DISQUE ET RÉPLICATION RÉSEAU

PRÉCHARGEMENT DU CACHE

RÉPLICATION ENTRE LES NŒUDS : GESTION DE LA COHÉRENCE PAR COUCHBASE

CONFIGURATION D’UNE APPLICATION CLIENTE POUR UTILISER COUCHBASE

DÉTERMINATION PAR LE CLIENT DU NŒUD À CONTACTER POUR L’ACCÈS AUX DONNÉES

CRÉATION D’UN BUCKET ET AJOUT DE DONNÉES

Jour 3

GESTION ASYNCHRONE DES SUPPRESSIONS : PIERRES TOMBALES ET COMPACTAGE

ÉJECTION, ÉVICTION ET GESTION DU JEU DE DONNÉES ACTIF

RÉÉQUILIBRAGE D’UNE GRAPPE APRÈS L’AJOUT OU LA SUPPRESSION DE NŒUDS

VUES ET INDEX

GESTION DES ZONES DE RÉPLICATION

Jour 4

Programme domaine "BIG DATA"Date de téléchargement : 15/09/2018

79

Page 80: DATA SCIENCE - OCTO Academy · Statisticien Architecte Développeur Data scientist ... INTRODUCTION AU TEXT MINING • Un modèle de représentation : le bag of words ... Choisir

TÂCHES D’ADMINISTRATION : AUGMENTATION/RÉDUCTION DE LA TAILLE D’UNE GRAPPE,GESTION DES INDISPONIBILITÉS

PERFORMANCES ET SUPERVISION D’UNE GRAPPE

RÉPLICATION INTER-DATACENTER ET GESTION DES CONFLITS

SAUVEGARDES ET RESTAURATIONS D’UNE GRAPPE

TRUCS ET ASTUCES DE RÉSOLUTION DES PROBLÈMES

UTILISATION DE LA CONSOLE WEB POUR ADMINISTRER ET SUPERVISER COUCHBASE

UTILISATION DES OUTILS EN LIGNE DE COMMANDE POUR ADMINISTRER COUCHBASE

Programme domaine "BIG DATA"Date de téléchargement : 15/09/2018

80

Page 81: DATA SCIENCE - OCTO Academy · Statisticien Architecte Développeur Data scientist ... INTRODUCTION AU TEXT MINING • Un modèle de représentation : le bag of words ... Choisir

Requêtes, modélisation de données, optimisation et migrationvia N1QLFormation officielle Couchbase "Querying, Modeling, Tuning, and Migrating Data usingN1QL"

Stage pratique en présentiel

NOSQL

Code :

CD210

Durée :

3 jours (21 heures)

Exposés :

30%

Cas pratiques :

70%

Sessions à venir :

21 - 23 nov. 2018

Paris / 2 195 eur

Tarif & dates intra :

Sur demande

DESCRIPTION

Une formation Couchbase centrée sur l’architecture et le design de données à

l’aide de N1QL. Modélisation des données, stockage et accès sont au cœur

des présentations et des nombreux exercices pratiques visant à construire

des applications NoSQL robustes, performantes et capable d’absorber les

montées en charge. La formation couvre : le langage de requêtes N1QL (SQL

pour JSON), la modélisation de données dans les applications NoSQL, indexes

et vues, optimisations de performance en fonction des cas d’usages, et

migration depuis une base de données relationnelle.

OBJECTIFS PÉDAGOGIQUES

Monter en compétence sur la modélisation de données, le stockage et

l’optimisation des performances N1QL

Appréhender les fondements de Couchbase

Découvrir et pratiquer le fonctionnement de N1QL

PUBLIC CIBLE

Développeur

Architecte

Administrateur base de données

Analyste business intelligence

PRÉ-REQUIS

• Expérience dans un langage de programmation moderne (Java, C/C++,

C#/.Net, JavaScript, Python, Ruby, PHP, etc.).

• Connaissance des bases de la programmation et des bases de données.

• Connaissance des bases du SQL.

• Aisance avec l’anglais écrit.

• Remarque : il est fortement recommandé aux futurs participants d’avoir

suivi les formations Couchbase en ligne CB030 et CB110.

MÉTHODE PÉDAGOGIQUE

Formation rythmée par des apports théoriques et des ateliers de mise en

pratique. Chaque participant travaille sur une VM et s’y connecte via le client

CLI puis le Query Workbench pour y effectuer des opérations. Les ateliers

porteront sur les requêtes, la modélisation et l’optimisation d’une application

de gestion de playlist musicale.

PROFILS DES INTERVENANTS

Toutes nos formations sont animées par des consultants-formateurs

expérimentés et reconnus par leurs pairs.

MODALITÉS D'ÉVALUATION ET FORMALISATION À L'ISSUE DELA FORMATION

Programme domaine "BIG DATA"Date de téléchargement : 15/09/2018

81

Page 82: DATA SCIENCE - OCTO Academy · Statisticien Architecte Développeur Data scientist ... INTRODUCTION AU TEXT MINING • Un modèle de représentation : le bag of words ... Choisir

L'évaluation des acquis se fait tout au long de la session au travers des

ateliers et des mises en pratique. Une évaluation à chaud sur la satisfaction

des stagiaires est réalisée systématiquement en fin de session et une

attestation de formation est délivrée aux participants mentionnant les objectifs

de la formation, la nature, le programme et la durée de l'action de formation

ainsi que la formalisation des acquis.

POUR ALLER PLUS LOIN :

• Toutes nos formations NoSQL

• Formation officielle "Déployer et gérer un cluster Couchbase" (Couchbase

NoSQL Server Administration) (CS300)

• Formation "Gérer efficacement ses logs avec la stack ELK : ElasticSearch –

Logstash – Kibana" (ELK01)

• Formation "Concevoir un moteur de recherche avec Elasticsearch :

Dimensionnement - Administration - Recherche" (ELAS2)

Programme domaine "BIG DATA"Date de téléchargement : 15/09/2018

82

Page 83: DATA SCIENCE - OCTO Academy · Statisticien Architecte Développeur Data scientist ... INTRODUCTION AU TEXT MINING • Un modèle de représentation : le bag of words ... Choisir

Programme pédagogique détaillé par journée

Jour 1

INTRODUCTION À COUCHBASE SERVER

• Découvrir l’organisation des données dans Couchbase• Comparer les approches NoSQL et relationnelles• Connaitre les origines de Couchbase et ses usages• Prendre en main le support fourni aux développeurs• Accéder aux données• Comprendre l’organisation des nœuds Couchbase• Appréhender l’administration d’un cluster• Editer des documents depuis la console• Connaitre les outils N1QL

LE LANGAGE N1QL

• SELECT• Aggréger et ordonner• Connaitre les opérateurs et les fonctions• Data Manipulation Language (DML)• Etendre le SQL au JSON• JOIN

Jour 2

MODÉLISATION DE DONNÉES EN JSON

• Modéliser les données dans un contexte JSON et NoSQL• Modéliser les entités en JSON• Choisir sa stratégie de clé JSON• Modéliser les relations en JSON• Découvrir les modèles et les données du cas pratique• Connaitre les principaux patterns

INDEXATION

• Connaitre les différents types d’index• Index Secondaires Distribués (Vues)• Index Secondaires Globaux (GSI)• Créer et utiliser des index secondaires

Jour 3

MOTEUR DE REQUÊTES

• Comprendre les phases d’exécution des requêtes• Analyser l’exécution d’une requête• IntersectScan• Index couvrant

Programme domaine "BIG DATA"Date de téléchargement : 15/09/2018

83

Page 84: DATA SCIENCE - OCTO Academy · Statisticien Architecte Développeur Data scientist ... INTRODUCTION AU TEXT MINING • Un modèle de représentation : le bag of words ... Choisir

OPTIMISATIONS N1QL

• Comprendre l’exécution des requêtes• Optimiser les requêtes• Connaitre les bonnes pratiques d’optimisation

MIGRATION DE REQUÊTES RELATIONNELLES VERS N1QL

• Comprendre les raisons de la migration• Concevoir le modèle de données• Choisir les types de données• Créer les clés et les index• Migrer les requêtes SQL existantes• Connaitre les équivalences sur du CRUD

CLÔTURE DE LA FORMATION ET BILAN DE LA FORMATION

Programme domaine "BIG DATA"Date de téléchargement : 15/09/2018

84

Page 85: DATA SCIENCE - OCTO Academy · Statisticien Architecte Développeur Data scientist ... INTRODUCTION AU TEXT MINING • Un modèle de représentation : le bag of words ... Choisir

Gérer efficacement ses logs avec la stack ELKElasticSearch – Logstash – Kibana

Stage pratique en présentiel

NOSQL

Code :

ELK01

Durée :

2 jours (14 heures)

Exposés :

50%

Cas pratiques :

50%

Sessions à venir :

15 - 16 nov. 2018

Paris / 1 560 eur

Tarif & dates intra :

Sur demande

DESCRIPTION

La stack ELK est très communément utilisée pour gérer facilement et

efficacement ses logs applicatifs. Issue de l’open source, simple à installer et

permettant de gérer toute sorte de documents (logs, messages divers,

documents évènementiels, etc.), cette stack est un outil puissant qui peut

cependant vite devenir incontrôlable. Cette formation vous donne des outils

simples et pratiques pour dimensionner, configurer et gérer simplement votre

cluster ELK.

OBJECTIFS PÉDAGOGIQUES

Identifier les bonnes pratiques à mettre en place pour développer une

application basée sur la stack ELK

Découvrir les bases de la gestion de messages avec Logstash

Appréhender les concepts de recherche full-text et de stockage de données

massif avec ElasticSearch

Créer des visualisations représentatives et efficaces avec le dashboard Kibana

Configurer ces trois outils pour une application robuste et fiable

PUBLIC CIBLE

Développeur

Architecte

Ops

PRÉ-REQUIS

• Disposer de notions sur http.

• Connaissance de l’environnement sous Linux.

MÉTHODE PÉDAGOGIQUE

Formation rythmée par des apports théoriques, des mises en pratique et des

bonnes pratiques qui s’appuient sur les retours d’expérience de nos

consultants-formateurs.

PROFILS DES INTERVENANTS

Toutes nos formations sont animées par des consultants-formateurs

expérimentés et reconnus par leurs pairs.

MODALITÉS D'ÉVALUATION ET FORMALISATION À L'ISSUE DELA FORMATION

L'évaluation des acquis se fait tout au long de la session au travers des

ateliers et des mises en pratique. Une évaluation à chaud sur la satisfaction

des stagiaires est réalisée systématiquement en fin de session et une

attestation de formation est délivrée aux participants mentionnant les objectifs

de la formation, la nature, le programme et la durée de l'action de formation

ainsi que la formalisation des acquis.

POUR ALLER PLUS LOIN :

Programme domaine "BIG DATA"Date de téléchargement : 15/09/2018

85

Page 86: DATA SCIENCE - OCTO Academy · Statisticien Architecte Développeur Data scientist ... INTRODUCTION AU TEXT MINING • Un modèle de représentation : le bag of words ... Choisir

• Toutes nos formations NoSQL

• Formation officielle "Déployer et gérer un cluster Couchbase" (Couchbase

NoSQL Server Administration) (CS300)

• Formation officielle Couchbase "Requêtes, modélisation de données,

optimisation et migration via N1QL" (Querying, Modeling, Tuning, and

Migrating Data using N1QL) (CD210)

• Formation "Concevoir un moteur de recherche avec Elasticsearch :

Dimensionnement - Administration - Recherche" (ELAS2)

Programme domaine "BIG DATA"Date de téléchargement : 15/09/2018

86

Page 87: DATA SCIENCE - OCTO Academy · Statisticien Architecte Développeur Data scientist ... INTRODUCTION AU TEXT MINING • Un modèle de représentation : le bag of words ... Choisir

Programme pédagogique détaillé par journée

Jour 1

DÉCOUVRIR LA STACK ELK

• ElasticSearch, Logstash et Kibana• Cas d’utilisation• Principaux points de vigilance pour la mise en place

STOCKER INTELLIGEMMENT SES LOGS AVEC ELASTICSEARCH

• ElasticSearch : une base de donnée ? un moteur de recherche ?• Installation, configuration de base et plugins• Architecture générale• Structure de l'API• Le rôle et l’importance du mapping• Recherche basique• Agrégats• Cas pratique : "Rechercher et agréger sur des formats de logs hétérogènes"

Jour 2

RÉCUPÉRER SES LOGS AVEC L'ETL LOGSTASH

• Fonctionnement et concepts• Installation et configuration de base• Inputs / Outputs : que peut-on brancher sur ce tuyau ?• Traitement automatique de la donnée avec les Filters• Dimensionnement des index• Cas pratique : "Agréger des logs sur un noeud ElasticSearch avec Logstash"

VISUALISER SES LOGS AVEC KIBANA

• Un dashboard conçu pour les cas d’utilisation ELK• Installation, configuration de base et plugins• Rechercher, agréger, visualiser, sauver, exporter• Construire des graphes représentatifs du besoin• Cas pratique : "Construire un outil de monitoring de logs simple et efficace avec différents types de logssur plusieurs machines distantes"

OPTIMISER LA GESTION OPÉRATIONNELLE D’UN CLUSTER ELK

• Monitoring et supervision• Dimensionner ElasticSearch• Dimensionner Logstash• Retour sur les points de vigilance• Une alternative à Logstash ?

CLÔTURE

• Synthèse et rappel des points clés• Plan d’action individuel

Programme domaine "BIG DATA"Date de téléchargement : 15/09/2018

87

Page 88: DATA SCIENCE - OCTO Academy · Statisticien Architecte Développeur Data scientist ... INTRODUCTION AU TEXT MINING • Un modèle de représentation : le bag of words ... Choisir

Concevoir un moteur de recherche avec ElasticsearchDimensionnement - Administration - Recherche

Stage pratique en présentiel

NOSQL

Code :

ELAS2

Durée :

2 jours (14 heures)

Exposés :

50%

Cas pratiques :

50%

Tarif & dates intra :

Sur demande

DESCRIPTION

Elasticsearch est un moteur de recherche conçu dès le départ pour être

distribué et gérer des volumes de données massifs. Il se base sur la librairie

Apache Lucene et lui ajoute des fonctionnalités supplémentaires pour la mise

en cluster, la haute disponibilité ainsi qu'une API puissante.

Cette formation a pour objet de présenter Elasticsearch et toutes les notions

importantes pour développer de façon efficace avec Elasticsearch. Elle est

aussi l'occasion de jeter un œil sous le capot pour comprendre plus en

profondeur le fonctionnement d'Elasticsearch et en tirer le meilleur.

OBJECTIFS PÉDAGOGIQUES

Identifier les bonnes pratiques à mettre en place pour développer une

application basée sur Elasticsearch

Découvrir Lucene et modéliser ses données pour la recherche

Administrer et dimensionner un cluster Elasticsearch

Monitorer un cluster Elasticsearch et détecter les problèmes

Configurer Elasticsearch pour obtenir des performances optimales

PUBLIC CIBLE

Développeur

Architecte

Ops

PRÉ-REQUIS

• Disposer de notions sur http et de connaissances de Linux.

MÉTHODE PÉDAGOGIQUE

Formation rythmée par des apports théoriques, des mises en pratiques et des

bonnes pratiques qui s’appuient sur les retours d’expérience de nos

consultants-formateurs.

PROFILS DES INTERVENANTS

Toutes nos formations sont animées par des consultants-formateurs

expérimentés et reconnus par leurs pairs.

MODALITÉS D'ÉVALUATION ET FORMALISATION À L'ISSUE DELA FORMATION

L'évaluation des acquis se fait tout au long de la session au travers des

ateliers et des mises en pratique. Une évaluation à chaud sur la satisfaction

des stagiaires est réalisée systématiquement en fin de session et une

attestation de formation est délivrée aux participants mentionnant les objectifs

de la formation, la nature, le programme et la durée de l'action de formation

ainsi que la formalisation des acquis.

POUR ALLER PLUS LOIN :

• Toutes nos formations NoSQL

Programme domaine "BIG DATA"Date de téléchargement : 15/09/2018

88

Page 89: DATA SCIENCE - OCTO Academy · Statisticien Architecte Développeur Data scientist ... INTRODUCTION AU TEXT MINING • Un modèle de représentation : le bag of words ... Choisir

• Formation officielle "Déployer et gérer un cluster Couchbase" (Couchbase

NoSQL Server Administration) (CS300)

• Formation officielle Couchbase "Requêtes, modélisation de données,

optimisation et migration via N1QL" (Querying, Modeling, Tuning, and

Migrating Data using N1QL) (CD210)

• Formation "Gérer efficacement ses logs avec la stack ELK : ElasticSearch –

Logstash – Kibana" (ELK01)

Programme domaine "BIG DATA"Date de téléchargement : 15/09/2018

89

Page 90: DATA SCIENCE - OCTO Academy · Statisticien Architecte Développeur Data scientist ... INTRODUCTION AU TEXT MINING • Un modèle de représentation : le bag of words ... Choisir

Programme pédagogique détaillé par journée

Jour 1

LES FONDAMENTAUX D'ELASTICSEARCH

• Introduction et use case• Installation• Configuration de base• Structure de l’API• Recherche basique• Cas Pratique : "Installation (1 nœud), indexation et recherche basique"

ELASTICSEARCH SOUS LE CAPOT

• Architecture générale• Fonctionnement des différents types de noeuds• Indexation, Sharding & Réplication• Split-Brain & Failover• Cas Pratique : "Mise en place d'un cluster"

Jour 2

RECHERCHE AVANCÉE

• Découvrir Lucene et le TF-IDF• Le rôle du mapping et des analyzers• Scoring• Performances• Cas Pratique : "Mise en place d'un mapping pour la recherche avancée"

GESTION OPÉRATIONNELLE D'UN CLUSTER ELASTICSEARCH

• Monitoring et Supervision• Dimensionner un cluster• Configuration avancée• Sécurité et écosystème ElasticSearch (plugins)• Failover et PRA• Cas Pratique : "Supervision d'un cluster"

CLÔTURE

• Synthèse et rappels des points clés• Plan d’actions individuel

Programme domaine "BIG DATA"Date de téléchargement : 15/09/2018

90