接口使用示例 - 搜索请求

优质
小牛编辑
131浏览
2023-12-01

上节介绍的,都是针对单条数据的操作。在 ES 环境中,更多的是搜索和聚合请求。在 5.0 之前版本中,数据获取和数据搜索甚至有极大的区别:刚写入的数据,可以通过 translog 立刻获取;但是却要等到 refresh 成为一个 segment 后,才能被搜索到。从 5.0 版本开始,Elasticsearch 稍作了改动,不再维护 doc-id 到 translog offset 的映射关系,一旦 GET 请求到这个还不能搜到的数据,就强制 refresh 出来 segment,这样就可以搜索了。这个改动降低了数据获取的性能,但是节省了不少内存,减少了 young GC 次数,对写入性能的提升是很有好处的。

本节介绍 ES 的搜索语法。

全文搜索

ES 对搜索请求,有简易语法和完整语法两种方式。简易语法作为以后在 Kibana 上最常用的方式,一定是需要学会的。而在命令行里,我们可以通过最简单的方式来做到。还是上节输入的数据:

  1. # curl -XGET http://127.0.0.1:9200/logstash-2015.06.21/testlog/_search?q=first

可以看到返回结果:

  1. {"took":240,"timed_out":false,"_shards":{"total":27,"successful":27,"failed":0},"hits":{"total":1,"max_score":0.11506981,"hits":[{"_index":"logstash-2015.06.21","_type":"testlog","_id":"AU4ew3h2nBE6n0qcyVJK","_score":0.11506981,"_source":{
  2. "date" : "1434966686000",
  3. "user" : "chenlin7",
  4. "mesg" : "first message into Elasticsearch"
  5. }}]}}

还可以用下面语句搜索,结果是一样的。

  1. # curl -XGET http://127.0.0.1:9200/logstash-2015.06.21/testlog/_search?q=user:"chenlin7"

querystring 语法

上例中,?q=后面写的,就是 querystring 语法。鉴于这部分内容会在 Kibana 上经常使用,这里详细解析一下语法:

  • 全文检索:直接写搜索的单词,如上例中的 first
  • 单字段的全文检索:在搜索单词之前加上字段名和冒号,比如如果知道单词 first 肯定出现在 mesg 字段,可以写作 mesg:first
  • 单字段的精确检索:在搜索单词前后加双引号,比如 user:"chenlin7"
  • 多个检索条件的组合:可以使用 NOT, ANDOR 来组合检索,注意必须是大写。比如 user:("chenlin7" OR "chenlin") AND NOT mesg:first
  • 字段是否存在:_exists_:user 表示要求 user 字段存在,_missing_:user 表示要求 user 字段不存在;
  • 通配符:用 ? 表示单字母,* 表示任意个字母。比如 fir?t mess*
  • 正则:需要比通配符更复杂一点的表达式,可以使用正则。比如 mesg:/mes{2}ages?/。注意 ES 中正则性能很差,而且支持的功能也不是特别强大,尽量不要使用。ES 支持的正则语法见:https://www.elastic.co/guide/en/elasticsearch/reference/current/query-dsl-regexp-query.html
  • 近似搜索:用 ~ 表示搜索单词可能有一两个字母写的不对,请 ES 按照相似度返回结果。比如 frist~
  • 范围搜索:对数值和时间,ES 都可以使用范围搜索,比如:rtt:>300date:["now-6h" TO "now"} 等。其中,[] 表示端点数值包含在范围内,{} 表示端点数值不包含在范围内;

完整语法

ES 支持各种类型的检索请求,除了可以用 querystring 语法表达的以外,还有很多其他类型,具体列表和示例可参见:https://www.elastic.co/guide/en/elasticsearch/reference/current/query-dsl-queries.html

作为最简单和常用的示例,这里展示一下 term query 的写法,相当于 querystring 语法中的 user:"chenlin7"

  1. # curl -XGET http://127.0.0.1:9200/_search -d '
  2. {
  3. "query": {
  4. "term": {
  5. "user": "chenlin7"
  6. }
  7. }
  8. }'

聚合请求

在检索范围确定之后,ES 还支持对结果集做聚合查询,返回更直接的聚合统计结果。在 ES 1.0 版本之前,这个接口叫 Facet,1.0 版本之后,这个接口改为 Aggregation。

Kibana 分别在 v3 中使用 Facet,v4 中使用 Aggregation。不过总的来说,Aggregation 是 Facet 接口的强化升级版本,我们直接了解 Aggregation 即可。本书后续章节也会介绍如何在 Kibana 的 v3 版本中使用 aggregation 接口做二次开发。

堆叠聚合示例

在 Elasticsearch 1.x 系列中,aggregation 分为 bucket 和 metric 两种,分别用作词元划分和数值计算。而其中的 bucket aggregation,还支持在自身结果集的基础上,叠加新的 aggregation。这就是 aggregation 比 facet 最领先的地方。比如实现一个时序百分比统计,在 facet 接口就无法直接完成,而在 aggregation 接口就很简单了:

  1. # curl -XPOST 'http://127.0.0.1:9200/logstash-2015.06.22/_search?size=0&pretty' -d'{
  2. "aggs" : {
  3. "percentile_over_time" : {
  4. "date_histogram" : {
  5. "field" : "@timestamp",
  6. "interval" : "1h"
  7. },
  8. "aggs" : {
  9. "percentile_one_time" : {
  10. "percentiles" : {
  11. "field" : "requesttime"
  12. }
  13. }
  14. }
  15. }
  16. }
  17. }'

得到结果如下:

  1. {
  2. "took" : 151595,
  3. "timed_out" : false,
  4. "_shards" : {
  5. "total" : 81,
  6. "successful" : 81,
  7. "failed" : 0
  8. },
  9. "hits" : {
  10. "total" : 3307142043,
  11. "max_score" : 1.0,
  12. "hits" : [ ]
  13. },
  14. "aggregations" : {
  15. "percentile_over_time" : {
  16. "buckets" : [ {
  17. "key_as_string" : "22/Jun/2015:22:00:00 +0000",
  18. "key" : 1435010400000,
  19. "doc_count" : 459273981,
  20. "percentile_one_time" : {
  21. "values" : {
  22. "1.0" : 0.004,
  23. "5.0" : 0.006,
  24. "25.0" : 0.023,
  25. "50.0" : 0.035,
  26. "75.0" : 0.08774675719725569,
  27. "95.0" : 0.25732934416125663,
  28. "99.0" : 0.7508899754871812
  29. }
  30. }
  31. }, {
  32. "key_as_string" : "23/Jun/2015:00:00:00 +0000",
  33. "key" : 1435017600000,
  34. "doc_count" : 768620219,
  35. "percentile_one_time" : {
  36. "values" : {
  37. "1.0" : 0.004,
  38. "5.0" : 0.007000000000000001,
  39. "25.0" : 0.025,
  40. "50.0" : 0.03987809503972864,
  41. "75.0" : 0.10297843567746187,
  42. "95.0" : 0.30047269327062875,
  43. "99.0" : 1.015495933753329
  44. }
  45. }
  46. }, {
  47. "key_as_string" : "23/Jun/2015:02:00:00 +0000",
  48. "key" : 1435024800000,
  49. "doc_count" : 849467060,
  50. "percentile_one_time" : {
  51. "values" : {
  52. "1.0" : 0.004,
  53. "5.0" : 0.008,
  54. "25.0" : 0.027000000000000003,
  55. "50.0" : 0.0439999899006102,
  56. "75.0" : 0.1160416197625958,
  57. "95.0" : 0.3383140614483838,
  58. "99.0" : 1.0275839684542212
  59. }
  60. }
  61. } ]
  62. }
  63. }
  64. }

管道聚合示例

在 Elasticsearch 2.x 中,新增了 pipeline aggregation 类型。可以在已有 aggregation 返回的数组数据之后,再对这组数值做一次运算。最常见的,就是对时序数据求移动平均值。比如对响应时间做周期为 7,移动窗口为 30,alpha, beta, gamma 参数均为 0.5 的 holt-winters 季节性预测 2 个未来值的请求如下:

  1. {
  2. "aggs" : {
  3. "my_date_histo" : {
  4. "date_histogram" : {
  5. "field" : "@timestamp",
  6. "interval" : "1h"
  7. },
  8. "aggs" : {
  9. "avgtime" : {
  10. "avg" : { "field" : "requesttime" }
  11. },
  12. "the_movavg" : {
  13. "moving_avg" : {
  14. "buckets_path" : "avgtime",
  15. "window" : 30,
  16. "model" : "holt_winters",
  17. "predict" : 2,
  18. "settings" : {
  19. "type" : "mult",
  20. "alpha" : 0.5,
  21. "beta" : 0.5,
  22. "gamma" : 0.5,
  23. "period" : 7,
  24. "pad" : true
  25. }
  26. }
  27. }
  28. }
  29. }
  30. }
  31. }

响应如下:

  1. {
  2. "took" : 12,
  3. "timed_out" : false,
  4. "_shards" : {
  5. "total" : 10,
  6. "successful" : 10,
  7. "failed" : 0
  8. },
  9. "hits" : {
  10. "total" : 111331,
  11. "max_score" : 0.0,
  12. "hits" : [ ]
  13. },
  14. "aggregations" : {
  15. "my_date_histo" : {
  16. "buckets" : [ {
  17. "key_as_string" : "2015-12-24T02:00:00.000Z",
  18. "key" : 1450922400000,
  19. "doc_count" : 1462,
  20. "avgtime" : {
  21. "value" : 508.25649794801643
  22. }
  23. }, {
  24. ...
  25. }, {
  26. "key_as_string" : "2015-12-24T17:00:00.000Z",
  27. "key" : 1450976400000,
  28. "doc_count" : 1664,
  29. "avgtime" : {
  30. "value" : 504.7067307692308
  31. },
  32. "the_movavg" : {
  33. "value" : 500.9766851760192
  34. }
  35. }, {
  36. ...
  37. }, {
  38. "key_as_string" : "2015-12-25T09:00:00.000Z",
  39. "key" : 1451034000000,
  40. "doc_count" : 0,
  41. "the_movavg" : {
  42. "value" : 493.9519632950849,
  43. "value_as_string" : "1970-01-01T00:00:00.493Z"
  44. }
  45. } ]
  46. }
  47. }

可以看到,在第一个移动窗口还没满足之前,是没有移动平均值的;而在实际数据已经结束以后,虽然没有平均值了,但是预测的移动平均值却还有数。

buckets_path 语法

由于 aggregation 是有堆叠层级关系的,所以 pipeline aggregation 在引用 metric aggregation 时也就会涉及到层级的问题。在上例中,the_movavgavgtime 是同一层级,所以 buckets_path 直接写 avgtime 即可。但是如果我们把 the_movavg 上提一层,跟 my_date_histo 同级,这个 buckets_path 怎么写才行呢?

  1. "buckets_path" : "my_date_histo>avgtime"

如果用的是返回的数值有多个值的聚合,比如 percentiles 或者 extended_stats,则是:

  1. "buckets_path" : "percentile_over_time>percentile_one_time.95"

ES 目前能支持的聚合请求列表,参见:https://www.elastic.co/guide/en/elasticsearch/reference/current/search-aggregations.html

See Also

Holt Winters 预测算法,见:https://en.wikipedia.org/wiki/Holt-Winters。其在运维领域最著名的运用是 RRDtool 中的 HWPREDICT

search 请求参数

  • from

从索引的第几条数据开始返回,默认是 0;

  • size

返回多少条数据,默认是 10。

注意:Elasticsearch 集群实际是需要给 coordinate node 返回 shards number * (from + size) 条数据,然后在单机上进行排序,最后给客户端返回这个 size 大小的数据的。所以请谨慎使用 from 和 size 参数。

此外,Elasticsearch 2.x 还新增了一个索引级别的动态控制配置项:index.max_result_window,默认为 10000。即 from + size 大于 10000 的话,Elasticsearch 直接拒绝掉这次请求不进行具体搜索,以保护节点。

另外,Elasticsearch 2.x 还提供了一个小优化:当设置 "size":0 时,自动改变 search_type 为 count。跳过搜索过程的 fetch 阶段。

  • timeout

coordinate node 等待超时时间。到达该阈值后,coordinate node 直接把当前收到的数据返回给客户端,不再继续等待 data node 后续的返回了。

注意:这个参数只是为了配合客户端程序,并不能取消掉 data node 上搜索任务还在继续运行和占用资源。

  • terminate_after

各 data node 上,扫描单个分片时,找到多少条记录后,就认为足够了。这个参数可以切实保护 data node 上搜索任务不会长期运行和占用资源。但是也就意味着搜索范围没有覆盖全部索引,是一个抽样数据。准确率是不好判断的。

  • request_cache

各 data node 上,在分片级别,对请求的响应(仅限于 hits.total 数值、aggregation 和 suggestion 的结果集)做的缓存。注意:这个缓存的键值要求很严格,请求的 JSON 必须一字不易,缓存才能命中。

另外,request_cache 参数不能写在请求 JSON 里,只能以 URL 参数的形式存在。示例如下:

  1. curl -XPOST http://localhost:9200/_search?request_cache=true -d '
  2. {
  3. "size" : 0,
  4. "timeout" : "120s",
  5. "terminate_after" : 1000000,
  6. "query" : { "match_all" : {} },
  7. "aggs" : { "terms" : { "terms" : { "field" : "keyname" } } }
  8. }
  9. '