Pythagore F.D. apprendre à apprendre

Formation: BigData Architecture et technologies

Durée:
2 jours
Prix:
1105 €
Code cours:
CB001



Public:
Chefs de projets, architectes, développeurs, data-scientists, et toute personne souhaitant connaître les outils et solutions pour concevoir et mettre en oeuvre une architecture BigData.

Objectifs:
Comprendre les concepts essentiels du BigData, et les technologies implémentées. Savoir analyser les difficultés propres à un projet BigData, les freins, les apports, tant sur les aspects techniques que sur les points liés à la gestion du projet.

Connaissances préalables nécessaires:
Il est demandé aux participants d'avoir une bonne culture générale sur les systèmes d'information.


Programme détaillé de la formation (logo acroreadTéléchargez le programme) :

Introduction
L'essentiel du BigData : calcul distribué, données non structurées.
Besoins fonctionnels et caractéristiques techniques des projets.
La valorisation des données.
Le positionnement respectif des technologies de cloud, BigData et noSQL, et les liens, implications.
Quelques éléments d'architecture.
L'écosystème du BigData : les acteurs, les produits, état de l'art.
Cycle de vie des projets BigData.
Emergence de nouveaux métiers : Datascientists, Data labs, ...

Stockage
Caractéristiques NoSQL :
adaptabilité, extensibilité,
structure de données proches des utilisateurs, développeurs
Les types de bases de données : clé/valeur, document, colonne, graphe.
Données structurées et non structurées, documents, images,
fichiers XML, JSON, CSV, ...
Les différents modes et formats de stockage.
Importance du théorème CAP.
Stockage réparti : réplication, sharding, gossip protocol, hachage,
Systèmes de fichiers distribués : GFS, HDFS,
Les bases de données : HBase, BigTable, ..
Quelques exemples de produits et leurs caractéristiques :
Cassandra, MongoDB, CouchDB, DynamoDB, Riak, Hadoop.
Qualité des données, gouvernance de données.

Indexation et recherche
Moteurs de recherche.
Principe de fonctionnement.
Méthodes d'indexation. Mise en oeuvre avec elasticsearch.
Exemple de Lucene/solr.
Recherche dans les bases de volumes importants.
Exemples de produits et comparaison :
Dremel, Drill, ElasticSearch, MapReduce,

Calcul et restitution, intégration
Différentes solutions : calculs en mode batch, ou en temps réel,
sur des flux de données ou des données statiques.
Les produits :
langage de calculs statistiques, R Statistics Language, sas, RStudio.
Ponts entre les outils statistiques et les bases BigData
Outils de calcul sur des volumes importants :
storm en temps réel, hadoop en mode batch.
Zoom sur Hadoop :
complémentarité de HDFS et MapReduce.
Restitution et analyse : logstash, kibana, elk, pentaho
Présentation de pig pour la conception de tâches MapReduce sur une grappe Hadoop.



(c) 2016 Pythagore F.D. Paris
Pour nous contacter: 01 55 33 52 10 ou pfd@pythagore-fd.fr