Apache Hadoop-04-MapReduce 分布式计算的处理技术和程序模型
MapReduce
MapReduce 是一个框架,我们可以使用它来编写应用程序,以可靠的方式并行地处理大量商品硬件群集上的大量数据。
什么是MapReduce?
MapReduce是一种基于 java 的分布式计算的处理技术和程序模型。
MapReduce算法包含两个重要任务,即Map和Reduce。
Map采用一组数据并将其转换为另一组数据,其中各个元素被分解为元组(键/值对)。
其次,reduce任务,它将map的输出作为输入,并将这些数据元组合并成一组较小的元组。
作为MapReduce名称的顺序,reduce任务总是在map作业之后执行。
MapReduce的主要优点是易于在多个计算节点上扩展数据处理。
在MapReduce模型下,数据处理原语称为映射器和缩减器。将数据处理应用程序分解为映射器和简化器有时并不重要。
但是,一旦我们以MapReduce形式编写应用程序,扩展应用程序以在集群中运行数百,
数千甚至数万台机器只是一种配置更改。这种简单的可扩展性是吸引许多程序员使用MapReduce模型的原因。
算法
通常MapReduce范例是基于将计算机发送到数据所在的位置!
MapReduce程序在三个阶段执行,即map阶段,shuffle阶段和reduce阶段。
Map 阶段 :映射或映射器的作业是处理输入数据。一般来说,输入数据是以文件或目录的形式存储在Hadoop文件系统(HDFS)中。输入文件逐行传递到映射器函数。映射器处理数据并创建几个小块的数据。
Reduce 阶段 :这个阶段是Shuffle阶段和Reduce阶段的组合。 Reducer的工作是处理来自映射器的数据。处理后,它产生一组新的输出,将存储在HDFS中。
在MapReduce作业期间,Hadoop将Map和Reduce任务发送到集群中的相应服务器。
该框架管理数据传递的所有细节,例如发出任务,验证任务完成,以及在节点之间复制集群周围的数据。
大多数计算发生在节点上,本地磁盘上的数据减少了网络流量。
完成给定任务后,集群收集并减少数据以形成适当的结果,并将其发送回Hadoop服务器。
输入和输出(Java透视图)
MapReduce框架对对进行操作,也就是说,框架将作业的输入视为一组对,并生成一组对作为作业输出,可能是不同类型。
键和值类应该由框架以序列化的方式,因此,需要实现Writable接口。此外,键类必须实现Writable-Comparable接口,以方便框架进行排序。
MapReduce作业的输入和输出类型:(输入)- > map - > - > reduce - >
(输出)。
输入 | 输出 |
---|---|
Map | list () |
Reduce | list () |
术语
- PayLoad
应用程序实现Map和Reduce功能,并形成作业的核心。
- Mapper
映射器将输入键/值对映射到一组中间键/值对。
- NamedNode
管理Hadoop分布式文件系统(HDFS)的节点。
- DataNode
在任何处理发生之前提前呈现数据的节点。
- MasterNode
JobTracker运行并接受来自客户端的作业请求的节点。
- SlaveNode
Map和Reduce程序运行的节点。
- JobTracker
计划作业并跟踪将作业分配给任务跟踪器。
- Task Tracker
跟踪任务并向JobTracker报告状态。
- Job
程序是跨数据集的Mapper和Reducer的执行。
- Task
在一个数据片段上执行Mapper或Reducer。
- Task
尝试在SlaveNode上执行任务的特定实例。