为了账号安全,请及时绑定邮箱和手机立即绑定

如何使用ElasticSearch搜索单词的一部分

/ 猿问

如何使用ElasticSearch搜索单词的一部分

潇湘沐 2019-09-19 09:44:17

我最近开始使用ElasticSearch,我似乎无法让它搜索一个单词的一部分。


示例:我在我的couchdb中有三个索引在ElasticSearch中索引的文档:


{

  "_id" : "1",

  "name" : "John Doeman",

  "function" : "Janitor"

}

{

  "_id" : "2",

  "name" : "Jane Doewoman",

  "function" : "Teacher"

}

{

  "_id" : "3",

  "name" : "Jimmy Jackal",

  "function" : "Student"

所以现在,我想搜索包含“Doe”的所有文件


curl http://localhost:9200/my_idx/my_type/_search?q=Doe

这不会返回任何命中。但是,如果我搜索


curl http://localhost:9200/my_idx/my_type/_search?q=Doeman

它确实返回一个文件(John Doeman)。


我尝试过设置不同的分析器和不同的过滤器作为索引的属性。我也试过使用完整的查询(例如:


{

  "query": {

    "term": {

      "name": "Doe"

    }

  }

}

但似乎没有任何作用。


当我搜索“Doe”时,如何让ElasticSearch找到John Doeman和Jane Doewoman?


UPDATE


我尝试使用nGram标记器和过滤器,就像Igor提出的那样,如下所示:


{

  "index": {

    "index": "my_idx",

    "type": "my_type",

    "bulk_size": "100",

    "bulk_timeout": "10ms",

    "analysis": {

      "analyzer": {

        "my_analyzer": {

          "type": "custom",

          "tokenizer": "my_ngram_tokenizer",

          "filter": [

            "my_ngram_filter"

          ]

        }

      },

      "filter": {

        "my_ngram_filter": {

          "type": "nGram",

          "min_gram": 1,

          "max_gram": 1

        }

      },

      "tokenizer": {

        "my_ngram_tokenizer": {

          "type": "nGram",

          "min_gram": 1,

          "max_gram": 1

        }

      }

    }

  }

}

我现在遇到的问题是每个查询都返回所有文档。有什么指针吗?关于使用nGram的ElasticSearch文档不是很好......


查看完整描述

3 回答

?
倚天杖

我也在使用nGram。我使用标准tokenizer和nGram作为过滤器。这是我的设置:


{

  "index": {

    "index": "my_idx",

    "type": "my_type",

    "analysis": {

      "index_analyzer": {

        "my_index_analyzer": {

          "type": "custom",

          "tokenizer": "standard",

          "filter": [

            "lowercase",

            "mynGram"

          ]

        }

      },

      "search_analyzer": {

        "my_search_analyzer": {

          "type": "custom",

          "tokenizer": "standard",

          "filter": [

            "standard",

            "lowercase",

            "mynGram"

          ]

        }

      },

      "filter": {

        "mynGram": {

          "type": "nGram",

          "min_gram": 2,

          "max_gram": 50

        }

      }

    }

  }

}

让我们找到最多50个字母的单词部分。根据需要调整max_gram。在德语中,单词可以变得非常大,所以我将其设置为高价值。


查看完整回答
反对 回复 2019-09-19
?
莫回无

使用前导和尾随通配符进行搜索对于大型索引来说会非常慢。如果您希望能够通过单词前缀进行搜索,请删除前导通配符。如果你真的需要在一个单词的中间找到一个子字符串,那么你最好使用ngram tokenizer。


查看完整回答
反对 回复 2019-09-19
?
蝴蝶刀刀

我认为没有必要改变任何映射。尝试使用query_string,它是完美的。所有方案都适用于默认的标准分析器:


我们有数据:


{"_id" : "1","name" : "John Doeman","function" : "Janitor"}

{"_id" : "2","name" : "Jane Doewoman","function" : "Teacher"}

场景1:


{"query": {

    "query_string" : {"default_field" : "name", "query" : "*Doe*"}

} }

响应:


{"_id" : "1","name" : "John Doeman","function" : "Janitor"}

{"_id" : "2","name" : "Jane Doewoman","function" : "Teacher"}

场景2:


{"query": {

    "query_string" : {"default_field" : "name", "query" : "*Jan*"}

} }

响应:


{"_id" : "1","name" : "John Doeman","function" : "Janitor"}

场景3:


{"query": {

    "query_string" : {"default_field" : "name", "query" : "*oh* *oe*"}

} }

响应:


{"_id" : "1","name" : "John Doeman","function" : "Janitor"}

{"_id" : "2","name" : "Jane Doewoman","function" : "Teacher"}



查看完整回答
反对 回复 2019-09-19

添加回答

回复

举报

0/150
提交
取消
意见反馈 邀请有奖 帮助中心 APP下载
官方微信