Les technologies du Big Data décortiquées
« Maîtriser l'utilisation des technologies Hadoop » vient de paraître aux Editions Eyrolles, signé par Juvénal Chokogoue.
PublicitéDepuis longtemps, Hadoop s'est imposé comme environnement dédié au Big Data. Mais les technologies de son écosystème restent assez diverses, notamment afin de rendre accessibles aux analystes la puissance de l'outil de base. Spécialiste des traitements Big Data, Juvénal Chokogoue vient de publier aux éditions Eyrolles un nouvel ouvrage dédié à un panorama des principales technologies de cet écosystème, « Maîtriser l'utilisation des technologies Hadoop ».
Bien que, théoriquement, les grands principes soient connus, l'auteur veille avant tout à repréciser les concepts de base de Hadoop (Map Reduce, HDFS, etc.). 18 technologies de l'écosystème Hadoop (Spark, Hive/HiveQL, Pig, Impala, ElasticSearch, HBase, Lucene, HAWQ, MapReduce, Mahout, HAMA, Tez, Phoenix, YARN, ZooKeeper, Storm, Oozie et Sqoop) sont ensuite explicitées.
L'ouvrage n'est pas un mode d'emploi de chaque technologie, ni un manuel d'apprentissage pour concrètement les mettre en oeuvre. Il s'agit par contre de comprendre leurs utilités et leurs principes de fonctionnement avant de, le cas échéant, creuser tel ou tel aspect. Pour cela, le texte est bien structuré et clair, comportant de nombreux schémas explicatifs et des encadrés mettant en avant des points importants ou sensibles. Chaque fin de partie comprend un questionnaire et un résumé, afin de s'assurer que les concepts ont été bien compris.
Article rédigé par
Bertrand Lemaire, Rédacteur en chef de CIO
Commentaire
INFORMATION
Vous devez être connecté à votre compte CIO pour poster un commentaire.
Cliquez ici pour vous connecter
Pas encore inscrit ? s'inscrire