生产调优Hadoop综合调优

生产调优Hadoop综合调优,第1张

生产调优Hadoop综合调优 生产调优Hadoop综合调优 Hadoop 小文件优化方法 Hadoop 小文件弊端

HDFS 上每个文件都要在 NameNode 上创建对应的元数据,这个元数据的大小约为150byte,这样当小文件比较多的时候,就会产生很多的元数据文件,一方面会大量占用NameNode 的内存空间,另一方面就是元数据文件过多,使得寻址索引速度变慢。

小文件过多,在进行 MR 计算时,会生成过多切片,需要启动过多的 MapTask。每个MapTask 处理的数据量小,导致 MapTask 的处理时间比启动时间还小,白白消耗资源。

Hadoop 小文件解决方案

1)在数据采集的时候,就将小文件或小批数据合成大文件再上传 HDFS(数据源头)
2)Hadoop Archive(存储方向)
是一个高效的将小文件放入 HDFS 块中的文件存档工具,能够将多个小文件打包成一个 HAR 文件,从而达到减少 NameNode 的内存使用
3)CombineTextInputFormat(计算方向)
CombineTextInputFormat 用于将多个小文件在切片过程中生成一个单独的切片或者少量的切片。
4)开启 uber 模式,实现 JVM 重用(计算方向)
默认情况下,每个 Task 任务都需要启动一个 JVM 来运行,如果 Task 任务计算的数据量很小,我们可以让同一个 Job 的多个 Task 运行在一个 JVM 中,不必为每个 Task 都开启一个 JVM。
(1)未开启 uber 模式,在/input 路径上上传多个小文件并执行 wordcount 程序
hadoop jar share/hadoop/mapreduce/hadoop-mapreduce-examples-3.1.3.jar wordcount /input /output2
(2)观察控制台

(3)观察 http://hadoop103:8088/cluster

(4)开启 uber 模式,在 mapred-site.xml 中添加如下配置


 mapreduce.job.ubertask.enable
 true

 

 mapreduce.job.ubertask.maxmaps
 9



 mapreduce.job.ubertask.maxreduces
 1



 mapreduce.job.ubertask.maxbytes
 

(5)分发配置
xsync mapred-site.xml
(6)再次执行 wordcount 程序
(7)观察控制台

(8)观察 http://hadoop103:8088/cluster

测试 MapReduce 计算性能

使用 Sort 程序评测 MapReduce
注:一个虚拟机不超过 150G 磁盘尽量不要执行这段代码
(1)使用 RandomWriter 来产生随机数,每个节点运行 10 个 Map 任务,每个 Map 产生大约 1G 大小的二进制随机数
hadoop jar /opt/module/hadoop-3.1.3/share/hadoop/mapreduce/hadoop-mapreduce-examples-3.1.3.jar randomwriter random-data
(2)执行 Sort 程序
hadoop jar /opt/module/hadoop-3.1.3/share/hadoop/mapreduce/hadoop-mapreduce-examples-3.1.3.jar sort random-data sorted-data
(3)验证数据是否真正排好序了
hadoop jar /opt/module/hadoop-3.1.3/share/hadoop/mapreduce/hadoop-mapreduce-client-jobclient-3.1.3-tests.jar testmapredsort -sortInput random-data -sortOutput sorted-data

企业开发场景案例 需求

(1)需求:从 1G 数据中,统计每个单词出现次数。服务器 3 台,每台配置 4G 内存,4 核 CPU,4 线程。
(2)需求分析:1G / 128m = 8 个 MapTask;1 个 ReduceTask;1 个 mrAppMaster
平均每个节点运行 10 个 / 3 台 ≈ 3 个任务(4 3 3)

HDFS 参数调优

(1)修改:hadoop-env.sh
export HDFS_NAMENODE_OPTS="-Dhadoop.security.logger=INFO,RFAS -Xmx1024m"
export HDFS_DATANODE_OPTS="-Dhadoop.security.logger=ERROR,RFAS -Xmx1024m"
(2)修改 hdfs-site.xml


 dfs.namenode.handler.count
 21

(3)修改 core-site.xml


 fs.trash.interval
60

(4)分发配置
xsync hadoop-env.sh hdfs-site.xml core-site.xml

MapReduce 参数调优

(1)修改 mapred-site.xml


 mapreduce.task.io.sort.mb
 100



 mapreduce.map.sort.spill.percent
 0.80



 mapreduce.task.io.sort.factor
 10



 mapreduce.map.memory.mb
 -1
 The amount of memory to request from the scheduler for each map task. If this is not specified or is non-positive, it is inferred from mapreduce.map.java.opts and mapreduce.job.heap.memory-mb.ratio. If java-opts are also not specified, we set it to 1024.
 



 mapreduce.map.cpu.vcores
 1



 mapreduce.map.maxattempts
 4



 mapreduce.reduce.shuffle.parallelcopies
5



 mapreduce.reduce.shuffle.input.buffer.percent
 0.70



 mapreduce.reduce.shuffle.merge.percent
 0.66



 mapreduce.reduce.memory.mb
 -1
 The amount of memory to request from the scheduler for each reduce task. If this is not specified or is non-positive, it is inferred from mapreduce.reduce.java.opts and mapreduce.job.heap.memory-mb.ratio. If java-opts are also not specified, we set it to 1024.
 



 mapreduce.reduce.cpu.vcores
 2



 mapreduce.reduce.maxattempts
 4



 mapreduce.job.reduce.slowstart.completedmaps
 0.05



 mapreduce.task.timeout
 600000

(2)分发配置
xsync mapred-site.xml

Yarn 参数调优

(1)修改 yarn-site.xml 配置参数如下


The class to use as the resource scheduler.
yarn.resourcemanager.scheduler.class
org.apache.hadoop.yarn.server.resourcemanager.scheduler.capacity.CapacityScheduler



Number of threads to handle scheduler interface.
yarn.resourcemanager.scheduler.client.thread-count
8



Enable auto-detection of node capabilities such as memory and CPU.

yarn.nodemanager.resource.detect-hardware-capabilities
false



yarn.nodemanager.resource.count-logical-processors-ascores
false



yarn.nodemanager.resource.pcores-vcores-multiplier
1.0



yarn.nodemanager.resource.memory-mb
4096



yarn.nodemanager.resource.cpu-vcores
4



yarn.scheduler.minimum-allocation-mb
1024



yarn.scheduler.maximum-allocation-mb
2048



yarn.scheduler.minimum-allocation-vcores
1



yarn.scheduler.maximum-allocation-vcores
2



Whether virtual memory limits will be enforced for
containers.
yarn.nodemanager.vmem-check-enabled
false



yarn.nodemanager.vmem-pmem-ratio
2.1

(2)分发配置
xsync yarn-site.xml

执行程序

(1)重启集群
(2)执行 WordCount 程序
hadoop jar share/hadoop/mapreduce/hadoop-mapreduce-examples-3.1.3.jar wordcount /input /output
(3)观察 Yarn 任务执行页面
http://hadoop103:8088/cluster/apps

欢迎分享,转载请注明来源:内存溢出

原文地址: https://outofmemory.cn/zaji/5656480.html

(0)
打赏 微信扫一扫 微信扫一扫 支付宝扫一扫 支付宝扫一扫
上一篇 2022-12-16
下一篇 2022-12-16

发表评论

登录后才能评论

评论列表(0条)

保存