将twitter数据索引到elasticsearch中:已超过索引中的总字段数[1000]个限制

将twitter数据索引到elasticsearch中:已超过索引中的总字段数[1000]个限制,第1张

将twitter数据索引到elasticsearch中:已超过索引中的总字段数[1000]个限制

此限制已在以下GitHub 问题中引入。

该命令count

grep type | wc -l
计数文本为 “ type”
的行数。因此,我认为计数有可能不准确。我写了一小段文字,得到的值比实际字段数高。因此,您得到的字段数也可能少于实际数量,但是我还没有想到一种方案。

这是我做的测试。

curl -s -XGET http://localhost:9200/stackoverflow/_mapping?pretty{  "stackoverflow" : {    "mappings" : {      "os" : {        "properties" : {          "NAME" : { "type" : "text", "fields" : {   "keyword" : {     "type" : "keyword",     "ignore_above" : 256   } }          },          "TITLE" : { "type" : "text", "fields" : {   "keyword" : {     "type" : "keyword",     "ignore_above" : 256   } }, "fielddata" : true          },          "title" : { "type" : "text", "fielddata" : true          }        }      }    }  }}

由于 “类型” 有5行,所以即使我只有3个字段,我的输出也仍为5。

您可以 尝试增加限制 ,看看是否可行?

PUT my_index/_settings{  "index.mapping.total_fields.limit": 2000}

您还可以在创建索引期间增加此限制。

PUT my_index{  "settings": {    "index.mapping.total_fields.limit": 2000,    "number_of_shards": 1,    "number_of_replicas": 0  },  "mappings": {    ...  }}

学分:https://discuss.elastic.co/t/total-fields-limit-
setting/53004/2



欢迎分享,转载请注明来源:内存溢出

原文地址: http://outofmemory.cn/zaji/4906158.html

(0)
打赏 微信扫一扫 微信扫一扫 支付宝扫一扫 支付宝扫一扫
上一篇 2022-11-12
下一篇 2022-11-12

发表评论

登录后才能评论

评论列表(0条)

保存