原创

ElasticSearch-Ik分词器学习

5.2 Ik分词器学习

  • 测试ik分词器
    GET _analyze?pretty
    {
    "analyzer": "ik_smart",
    "text": "中华人民共和国国歌" //分成了 中华人民共和国 国歌 两个词
    }
    
  • 最大化分词
    GET _analyze?pretty
    {
    "analyzer": "ik_max_word",
    "text": "中华人民共和国国歌" //按中文词库分出了更多的词
    }
    
    GET _analyze?pretty
    {
    "analyzer": "standard",
    "text": "中华人民共和国国歌" //按每个字分词
    }
    
  • 进口红酒
    GET _analyze?pretty
    {
    "analyzer": "ik_smart",
    "text": "进口红酒" //分成了 进口 红酒
    }
    
  • 最大化分词
    GET _analyze?pretty
    {
    "analyzer": "ik_max_word",
    "text": "进口红酒" //分成 进口 口红 红酒 
    }
    
    GET _analyze?pretty
    {
    "analyzer": "standard",
    "text": "进口红酒" //按每个字分词
    }
    
    ```
    analyzer指的是构建索引的时候的分词
    search_analyzer指的是搜索关键字时候的分词
    最佳实践方案:构建索引的时候使用maxword,但是查询的时候使用smartword。

此elasticsearch-7.3.0-node1/config/analysis-ik文件夹都是关于ik分词器的配置文件,例如
stopword.dic 英文停用词
extra_stopword.dic 中文停用词
```

正文到此结束
本文目录