segments&cache

segments&cache,第1张

segments&cache Segments 执行效果
  • 命令  在 sense 里边执行  GET /abcd/_segments  前边的是索引名称,后边是请求 段信息
  • 说明  索引是面向分片的,是由于索引是由一个或多个分片(以及它的副本)构成,每个分片就是一个物理上的Lucene索引
  • 返回

名词解释
  • 已提交索引段:指那些已经执行了提交命令的段,意味着已经提交到磁盘持久化并且是只读的;
  • 可查询索引段:可供查询使用的索引段;
  • 索引的代:告诉我们索引有多“老”,起初创建的索引段的代为0,接着是1,依次继续;
  • 被标记为已删除的索引数:这些文档会在索引段合并的过程中被删除;
Cache 分类
  • 过滤器缓存
  • 字段数据缓存
哪些场景会使用到缓存
  • 父子索引
  • 切面
  • 基于索引字段的高效排序
过滤器缓存 索引级过滤器缓存

index.cache.filter.type:类型 resident,soft,weak或node(默认值)

index.cache.filter.max_size:存储到缓存中的最大纪录数,默认为-1,应用于指定索引的某个分片的某个索引段上;

index.cache.filter.expire:指定过滤器缓存中记录的过期时间,默认为-1,60m代表60分钟;

节点级别过滤器缓存

应用于给定节点的所有分片,可以利用下边的参数设置缓存的大小:

indices.cache.filter.size:可以使用百分数 1% 占用当前最大堆内存的百分比,也可以设置数字 如 1024mb

移除策略:LRU

字段数据缓存 说明

字段数据缓存在我们涉及到 切面计算 或 基于字段数据排序使用

做法:加载相关字段的全部数据到内存中。


配置

index.fielddata.cache.type:同上

index.fielddata.cache.size:同上

index.fielddata.cache.expire:同上

过滤

上边的索引尤其是字段索引都是es的默认机制,将 切面计算的字段和排序的字段做的默认的fielddata索引,

现在我们选择性的将一些字段数据缓存做一个定制化

这样做的好处是:将一些低频词项甚至是错误的词从字段缓存中删除,降低字段缓存的总量;

基于词频和正则表达式过滤

只加载那些词频高于指定最小值且低于指定最大值的词项,词项的范围是针对索引段的。


 {
...
properties:{
"field":{
"type":"string",
"index":"not_anlyzed",
"fielddata":{
"filter":{
"frequency":{
"min":0.01, 词项出现频率大于1%
"max":0.4, 词项出现频率小于40%
"min_segment_size":100 该索引段至少要有100个文档
},
“regex”:"^#.*" 词项必须以#开头
}
}
}
}
} 只有符合以上过滤条件的 词项 才会被缓存
清除缓存
  • 清除全部缓存      _cache/clear
  • 清除指定缓存      index/_cache/clear
  • 清除指定类型缓存     index/_cache/clear?filter=true&field_data=false&bloom=true   清除索引的filter缓存和bloom缓存,保留fielddata字段数据缓存
  • 清除指定字段缓存     index/_cache/clear?fields=title,price  清除字段为field和price的全部缓存
问题
  1. filtercache是如何存储和获取的?
  2. fielddatacache是如何存储和获取的?
  3. segments的创建和merge机制是怎样的?

欢迎分享,转载请注明来源:内存溢出

原文地址: https://outofmemory.cn/zaji/587654.html

(0)
打赏 微信扫一扫 微信扫一扫 支付宝扫一扫 支付宝扫一扫
上一篇 2022-04-12
下一篇 2022-04-12

发表评论

登录后才能评论

评论列表(0条)

保存