非常非常多,大企业数据接近1EB
比如在双十一,数据爆增
很多样子的数据,比如,代码,图片,视频,JSON,等等。
很多数据都是没用的,需要人为去掉无效数据
每一个文件服务器,都会备份其他服务器的数据。这样,即使一台服务器的数据丢失,也不会导致数据丢失。
想加一台服务器就加,想减一台服务器就减。
每一台服务器都是并行操作的,效率很高。
一台服务器任务中途停止,会将任务转移到其他服务器上。
MapReduce 负责 计算和资源调度
HDFS 负责 数据的存储
Common负责 辅助
MapReduce 单纯负责计算
Yarn 负责资源调度
HDFS 负责数据的存储
Common负责辅助
HDFS的英文全称为(Hadoop Distributed File System)意为
Hadoop 分布式文件系统,这就很好理解为什么HDFS这几个字母负责数据的存储了。
Hadoop当中,
DataNode负责存储具体的数据和数据的校验工作,可以理解为子节点
NameNode 负责存储具体的数据存在哪个子节点当中,也就是DataNode的文件名,文件路径等等。可以理解为父节点
每隔一段时间备份NameNode的数据,防止NameNode数据丢失造成的全盘皆失。
MapReduce的计算过程,分为Map过程和Reduce过程
1)Map阶段并行处理输入数据
2)Reduce阶段对Map结果进行汇总
下一篇:写作的“收益”超乎想象