Formations au coeur des technologies

Essayer, tester, échanger les bonnes pratiques, partager les retours d'expériences, ...
toutes nos formations sont disponibles à distance (classes virtuelles) et en centre de formation (présentiel), au choix.
Vous pouvez même changer de modalité en cours de formation, si vous avez des contraintes : par exemple, commencer en présentiel et continuer les jours suivants à distance.
Les outils pédagogiques et l'infrastructure de travaux pratiques mis à disposition sont accessibles depuis nos locaux, ou depuis votre entreprise ou votre lieu de télétravail, à volonté
N'hésitez pas à tester nos formations et nos serious games !

Technologies

Quels types de données seront stockés ? documents à structure statique; documents à structure variable, relations, modèles structurés ?
Quelle utilisation sera faite de la donnée ? Lac statique, mise à jour permanente, stockage intermédiaire ?
Quels types de traitements seront réalisés ? Requêtes simples, analyse statistiques ?
Dans quel environnement va s'intégrer le système ? autonome, en lien avec des serveurs JEE, PHP, dans un cloud OpenStack ?
Quels types de performances sont attendues ? Temps réel, calculs à long terme, flux continus ?

De manière générale, une base NoSQL n'a pas vocation à remplacer une base SQL existante et stable. Il est important de considérer les technologies utilisées par chaque outil et la capacité à intégrer un nouvel élément dans un environnement existant.

On peut ensuite identifier quatre critères qui permettront d'affiner le choix fonctionnel :

  • La performance
  • L'extensibilité
  • La flexibilité
  • La complexité.

Les outils existants sont nombreux :

  • stockage
    • séries temporelles (time-series) : influxDB, opentsdb, kafka,
    • fichiers : hdfs, ceph
    • clés/valeurs : cassandra, accumulo, hbase
  • calculs
    • yarn
    • spark
    • dask
    • storm

Le projet hadoop regroupe un ensemble d'outils permettant d'exploiter des volumes importants de données : système de stockage, outils d'extraction, de conversion (ETL), d'analyse, systèmes d'organisation des tâches, interfaces de pilotage, etc ...HDFS pour le stockage, Yarn pour la répartition de tâches, Pig pour simplifier l'écriture de tâches MapReduce, ...

Les différents ateliers permettent de comprendre l'écosystème Hadoop, de savoir installer et configurer les outils, de développer avec MapReduce dans l'environnement hadoop.

 

  - Cassandra - HBase - Hadoop - MongoDB



Pythagore-F.D.

01 55 33 52 10
pfd@pythagore-fd.fr
Calendrier