51,99 €
inkl. MwSt.
Versandkostenfrei*
Versandfertig in 6-10 Tagen
  • Broschiertes Buch

"L'odyssée du Big Data : Naviguer vers la connaissance, l'innovation et l'impact" est un guide complet sur les big data et Hadoop. Ce livre commence par présenter les big data, leurs sources, leur histoire, leurs moteurs, leurs caractéristiques et leurs applications. Il se penche ensuite sur des éléments clés tels que l'analyse intelligente des données, la nature des données, les processus analytiques, les outils, la sécurité, la conformité, l'audit, la protection, la confidentialité et l'éthique. Il explore ensuite Hadoop, notamment son histoire, le projet Apache Hadoop, le système de…mehr

Produktbeschreibung
"L'odyssée du Big Data : Naviguer vers la connaissance, l'innovation et l'impact" est un guide complet sur les big data et Hadoop. Ce livre commence par présenter les big data, leurs sources, leur histoire, leurs moteurs, leurs caractéristiques et leurs applications. Il se penche ensuite sur des éléments clés tels que l'analyse intelligente des données, la nature des données, les processus analytiques, les outils, la sécurité, la conformité, l'audit, la protection, la confidentialité et l'éthique. Il explore ensuite Hadoop, notamment son histoire, le projet Apache Hadoop, le système de fichiers distribués Hadoop (HDFS), l'écosystème Hadoop, les formats de données, l'analyse des données, la mise à l'échelle, la diffusion en continu et les tuyaux. Il présente ensuite le cadre MapReduce, en expliquant ses bases, son fonctionnement, le développement d'applications, les tests unitaires avec MR Unit, l'anatomie des tâches, la planification, l'exécution des tâches, les types, les formats d'entrée et de sortie, et les caractéristiques. Le dernier chapitre de ce livre se concentre sur HDFS, détaillant sa conception, ses concepts, ses avantages, ses défis, la taille des fichiers, l'abstraction des blocs, la réplication des données, les interfaces Java, la ligne de commande de l'interface du système de fichiers, le flux de données, l'ingestion de données avec Flume et Scoop, les archives, les E/S, la sécurité, l'administration, la surveillance, la maintenance, les repères et le déploiement dans le nuage.
Autorenporträt
Détails de l'auteur :1. M. T. AkilanCoordinateur de recherche, Département IQAC, Amity University Kolkata.2. Mme M. ChandraprabhaProfesseur assistant, Département CSE, GCET.3. Dr. Jaya SinhaProfesseur, Département de CSE, GCET.