腾云忆想架构师教你解决Elasticsearch集群负载不均的问题

腾云忆想架构师教你解决Elasticsearch集群负载不均的问题,第1张

腾云忆想架构师教你解决Elasticsearch集群负载不均的问题

导读

腾讯云 Elasticsearch Service(ES)是基于开源搜索引擎 Elasticsearch 打造的高可用、可伸缩的云端全托管的 Elasticsearch 服务,包含 Kibana 及常用插件,并集成了安全、SQL、机器学习、告警、监控等高级特性(X-Pack)。本文描述在实际使用中,经常会遇到的ES集群负载不均的问题,并结合多种场景进行分析、解决,以及如何避免。

作者简介

岳涛

腾云忆想大数据产品架构师,多年分布式、高并发大数据系统的研发、系统架构设计经验,擅长主流大数据架构技术平台的落地和实施。目前专注于大数据架构相关组件的研究推广和最佳实践的沉淀,致力于帮助企业完成数字化转型。

一、背景

ES集群在某些情况下会出现CPU使用率高的现象,具体有两种表现:

1. 个别节点CPU使用率远高于其他节点;

2. 集群中所有节点CPU使用率都很高。

       本篇文章我们着重讲解第一种情况。

二、问题现象

集群在某些情况下会个别节点CPU使用率远高于其他节点的现象,从监控中可以明显看到某些节点CPU使用率居高不下。

三、原因

出现这种情况,由于表面上看集群读写都不高,导致很难快速从监控上找到根因。所以需要细心观察,从细节中找答案,下面我们介绍几种可能出现的场景以及排查思路。

原因一

Shard设置不合理

1. 登录Kibana控制台,在开发工具中执行以下命令,查看索引的shard信息,确认索引的shard在负载高的节点上呈现的数量较多,说明shard分配不均;

GET _cat/shards?v

2. 登录Kibana控制台,在开发工具中执行以下命令,查看索引信息。结合集群配置,确认存在节点shard分配不均的现象;

GET _cat/indices?v

1、 解决方案

重新分配分片,合理规划shard,确保主shard数与副shard数之和是集群数据节点的整数倍;由于Shard大小和数量是影响Elasticsearch集群稳定性和性能的重要因素之一。Elasticsearch集群中任何一个索引都需要有一个合理的shard规划。合理的shard规划能够防止因业务不明确,导致分片庞大消耗Elasticsearch本身性能的问题。以下是shard规划时的几个建议:

1. 尽量遵循索引单分片20g~50g的设计原则;

2. 索引尽量增加时间后缀,按时间滚动,方便管理:

3. 在遵循单分片设计原则的前提下,预测出索引最终大小,并根据集群节点数设计索引分片数量,使分片尽量平均分布在各个节点。

特别注意

 主分片不是越多越好,因为主分片越多,Elasticsearch性能开销也会越大。建议单节点shard总数按照单节点内存*30进行评估,如果shard数量太多,极易引起文件句柄耗尽,导致集群故障。

 Elasticsearch在检索过程中也会检索 .del 文件,然后过滤标记有 .del 的文档,这会降低检索效率,耗费规格资源,建议在业务低峰期进行强制合并 *** 作,具体请参见[force merge]1。

原因二

集群存在磁盘高水位节点

这里的高水位是指cluster.routing.allocation.disk.watermark.high ,其默认值为90%。这个参数的作用为:当磁盘水位达到90%的节点,es会把该节点上的部分shard迁移到磁盘水位低的节点上去。在这种场景下,很容易出现个别节点被分配了较多的索引,直接造成请求的热点。

2、解决方案

1.临时方案(不推荐):

(1)调整集群水位,临时调到一个比较大的值;

(2)清理旧数据,及时释放出磁盘空间,或者紧急扩容磁盘;

2.长期方案(推荐):

订阅磁盘使用率的告警,保持集群的磁盘水位在一个健康的状态。

原因三

Segment大小不均

 1. 在查询body中添加 "profile": true ,检查test索引是否存在某个shard查询时间比其他shard长。

2. 查询中分别指定 preference=_primary 和preference=_replica ,在body中添加 "profile": true ,分别查看主副hard查询消耗的时间。检查较耗时的shard主要体现在主shard上还是副shard上。

3. 登录Kibana控制台,在开发工具中执行以下命令,查看shard,并根据其中segment信息分析问题所在,确认负载不均与segment大小不均有关。

GET_cat/segments/index?v&h=shard,segment,size,size.momery,ipGET _cat/shards?v

(左右滑动查看)

 

3、 解决方案

参考以下两种方法其中一种解决问题:

1.在业务低峰期进行强制合并 *** 作,具体请参见[force merge]2,将缓存中的delete.doc彻底删除,将小segment合并成大segment。

2.重启主shard所在节点,触发副shard升级为主shard。并且重新生成副shard,副shard复制新的主shard中的数据,保持主副shard的segment一致。

原因四

存在典型的冷热数据需求场景

如果请求中添加了routing或查询频率较高的热点数据,则必然导致数据出现负载不均。

图中可以看到该条doc指定了routing。

4、解决方案

优化分片,慎用routing,避免请求热点。
 

总结

排查该类问题的关键点,还是在于善用集群的监控指标来快速判断问题的方向,再配合集群日志来定位问题的根因,才能快速地解决问题。

参考资料:

[force merge]1:

https://www.elastic.co/guide/en/elasticsearch/reference/7.5/indices-forcemerge.html

[force merge]2:

https://www.elastic.co/guide/en/elasticsearch/reference/7.5/indices-forcemerge.html

END

欢迎分享,转载请注明来源:内存溢出

原文地址: http://outofmemory.cn/zaji/5679309.html

(0)
打赏 微信扫一扫 微信扫一扫 支付宝扫一扫 支付宝扫一扫
上一篇 2022-12-17
下一篇 2022-12-17

发表评论

登录后才能评论

评论列表(0条)

保存