ElasticSearch-Ik分词器学习
5.2 Ik分词器学习
- 测试ik分词器
GET _analyze?pretty { "analyzer": "ik_smart", "text": "中华人民共和国国歌" //分成了 中华人民共和国 国歌 两个词 }
- 最大化分词
GET _analyze?pretty { "analyzer": "ik_max_word", "text": "中华人民共和国国歌" //按中文词库分出了更多的词 }
GET _analyze?pretty { "analyzer": "standard", "text": "中华人民共和国国歌" //按每个字分词 }
- 进口红酒
GET _analyze?pretty { "analyzer": "ik_smart", "text": "进口红酒" //分成了 进口 红酒 }
- 最大化分词
GET _analyze?pretty { "analyzer": "ik_max_word", "text": "进口红酒" //分成 进口 口红 红酒 }
```GET _analyze?pretty { "analyzer": "standard", "text": "进口红酒" //按每个字分词 }
analyzer指的是构建索引的时候的分词
search_analyzer指的是搜索关键字时候的分词
最佳实践方案:构建索引的时候使用maxword,但是查询的时候使用smartword。
此elasticsearch-7.3.0-node1/config/analysis-ik文件夹都是关于ik分词器的配置文件,例如
stopword.dic 英文停用词
extra_stopword.dic 中文停用词
```
正文到此结束
- 本文标签: ElasticSearch
- 本文链接: https://code.jiangjiesheng.cn/article/47
- 版权声明: 本文由小江同学原创发布,转载请先联系本站长,谢谢。