O ecossistema Hadoop se refere aos vários componentes
da biblioteca de software Apache Hadoop, incluindo
projetos de código aberto e ferramentas complementares
para armazenar e processar Big Data. Algumas das
ferramentas mais conhecidas incluem HDFS, Pig, YARN,
MapReduce, Spark, HBase Oozie, Sqoop e Kafka, cada
uma com função específica no ecossistema Hadoop. São
funções dos componentes do ecossistema Hadoop: