在前面,我们学会了ES的安装,我们知道ES需要分词器的。本文,咱们就学学IK分词器的安装。
IK分词器的安装分为两种:
在线安装和离线安装
# 进入容器内部
docker exec -it elasticsearch /bin/bash
# 在线下载并安装
./bin/elasticsearch-plugin install https://github.com/medcl/elasticsearch-analysis-ik/releases/download/v7.12.1/elasticsearch-analysis-ik-7.12.1.zip
#退出
exit
#重启容器
docker restart elasticsearch
安装插件需要知道elasticsearch的plugins目录位置,而我们用了数据卷挂载,因此需要查看elasticsearch的数据卷目录,通过下面命令查看:
docker volume inspect es-plugins
显示结果:
说明plugins目录被挂载到了:/var/lib/docker/volumes/es-plugins/_data
这个目录中。
下面我们需要把课前资料中的ik分词器解压缩,重命名为ik
创建ik目录:
mkdir ik
将elasticsearch-analysis-ik-7.12.1.zip解压到ik目录中:
unzip elasticsearch-analysis-ik-7.12.1.zip -d ik/
也就是/var/lib/docker/volumes/es-plugins/_data
:
将刚才解压的ik文件夹复制到:/var/lib/docker/volumes/es-plugins/_data/
# 4、重启容器
docker restart es
# 查看es日志
docker logs -f es
IK分词器包含两种模式:
ik_smart
:最少切分ik_max_word
:最细切分我们在上一节讲解的:【图文安装教程】在docker中安装kibana kibana中的dev_tools来模拟分词请求
GET /_analyze
{
"analyzer": "ik_max_word",
"text": "我是中国人,我爱我的祖国"
}
ik_max_word可以换成:ik_smart