网站建设备案需要材料,静态网站开发文章,新网站怎么做才会被收录,常熟外贸网站建设目录一、ES 的默认分词器测试示例二、IK 中文分词器2.1、IK 中文分词器下载地址2.2、ES 引入IK 中文分词器2.3、IK 中文分词器测试示例三、ES 扩展词汇测试示例一、ES 的默认分词器测试示例 通过 Postman 发送 GET 请求查询分词效果#xff0c;在消息体里#xff0c;指定要分…
目录一、ES 的默认分词器测试示例二、IK 中文分词器2.1、IK 中文分词器下载地址2.2、ES 引入IK 中文分词器2.3、IK 中文分词器测试示例三、ES 扩展词汇测试示例一、ES 的默认分词器测试示例 通过 Postman 发送 GET 请求查询分词效果在消息体里指定要分析的文本 # GET http://localhost:9200/_analyze
{text:王者荣耀
}输出结果如下 由上图输出结果可知ES 的默认分词器无法识别中文中测试、单词这样的词汇而是简单的将每个字拆完分为一个词这样的结果显然不符合我们的使用要求所以我们需要下载 ES 对应版本的中文分词器。
二、IK 中文分词器
2.1、IK 中文分词器下载地址
下载地址https://github.com/medcl/elasticsearch-analysis-ik/releases/tag/v7.8.0
2.2、ES 引入IK 中文分词器 将IK 中文分词器安装包解压然后把解压后的文件夹放入 ES 根目录下的 plugins 目录下重启 ES 即可使用。 注意ES的安装目录一定不要带有中文或者空格否则引入IK 中文分词器会报如下错误 java.security.AccessControlException: access denied (java.io.FilePermissionD:\Program Files\elasticsearch-7.8.0\plugins\elasticsearch-analysis-ik-7.8.0\config\IKAnalyzer.cfg.xml read)2.3、IK 中文分词器测试示例 通过 Postman 发送 GET 请求查询分词效果在消息体里指定分析器和要分析的文本 # GET http://localhost:9200/_analyze
{analyzer:ik_max_word,text: 王者荣耀
}分析器的key值解释 分析器的key值分析器的key值解释ik_max_word会将文本做最细粒度的拆分ik_smart会将文本做最粗粒度的拆分 使用IK中文分词后的结果为
三、ES 扩展词汇测试示例 通过 Postman 发送 GET 请求查询分词效果在消息体里指定分析器和要分析的文本 # GET http://localhost:9200/_analyze
{text:弗雷尔卓德,analyzer:ik_max_word
}输出结果如下 由上图输出结果可知仅仅可以得到每个字的分词结果。如何使分词器识别到弗雷尔卓德也是一个词语。 首先进入 ES 根目录中的 plugins 文件夹下的 ik 文件夹进入 config 目录创建 custom.dic 文件写入弗雷尔卓德。如下图 注意custom.dic文件内容的格式的编码为UTF-8格式编码,否则会导致扩展词汇失效。 同时打开 IKAnalyzer.cfg.xml 文件将新建的 custom.dic 配置其中如下图 重启 ES 服务器。由下图可知文件确实被加载了。 然后通过 Postman 发送 GET 请求查询分词效果。如下图