您的位置 首页 java

搜索引擎(八)中文分词IKAnalyzer的配置和使用

前面讲了Solr搜索引擎的使用和系统架构,今天要来说一说搜索引擎中重要的部分:中文分词。

有的时候,用户搜索的关键字,可能是一个词语,也可能是一句话,不是很规范。那么怎么识别出来用户真正想要查询的是什么呢?怎么在一句话中找出关键的词呢? 这里就需要用到中文分词,将用户输入的关键字进行分词。

目前有很多优秀的中文分词组件。本篇就以 IKAnalyzer 分词为例,讲解如何在 solr 中及集成中文分词,使用 IKAnalyzer的原因 IK 比其他中文分词维护的勤快,和 Solr 集成也相对容易。具体就不多介绍,这里直接solr 集成 IK 的方法。

1、下载IKAnalyzer

下载地址:

注意:以前老的IK 不支持Solr 5.3的版本 ,请注意下载最新的。

2、集成到Solr系统

将下载下来的IKAnalyzer 解压,然后拷贝到 webapps\solr\WEB-INF\lib 目录下。

3、增加自定义字段类型

增加自定义的fild type 字段类型,该字段类型使用IK解析,具体配置如下:

在 solr_home\mycore1\conf\schema.xml 增加如下配置

          <!-- 我添加的IK分词 -->
         <fieldType name="text_ik" class="solr.TextField">   
                   <analyzer type="index" isMaxWordLength=" false " class="org.wltea.analyzer.lucene.IKAnalyzer"/>   
                   <analyzer type="query" isMaxWordLength="true" class="org.wltea.analyzer.lucene.IKAnalyzer"/>   
         </fieldType>  

同时,把需要分词的字段,设置为text_ik,

   <field name="id" type="int" indexed="true" stored="true" required="true" multiValued="false" />
   <field name="name" type="text_ik" indexed="true" stored="true" required="true" multiValued="false" />
   <field name="title" type="text_ik" indexed="true" stored="true" required="true" multiValued="false" />
   <field name="category" type="int" indexed="true" stored="true" required="true" multiValued="false" />
   <field name="content" type="text_ik" indexed="true" stored="true" required="true" multiValued="false" />
   <field name="price" type=" double " indexed="true" stored="true" required="true" multiValued="false" />
   <field name="color" type="string" indexed="true" stored="true" required="true" multiValued="false" />
   <field name="orderBy" type="int" indexed="true" stored="true" required="true" multiValued="false" />
   <field name="updatetime" type="date" indexed="true" stored="true" required="true" multiValued="false" />  

4、重启服务

注意:如果之前已经创建了索引,需要将之前的索引删掉,重新创建分词后的索引。

5、在admin后台, analysis 下查看分词效果

1. 中文分词效果

    

2. 索引查询效果

    

6、配置IKAnalyzer分词器的扩展词典,停止词词典

1. 将 文件夹下的IKAnalyzer.cfg.xml , ext.dic和stopword.dic 三个文件 复制到/webapps/solr/WEB-INF/classes 目录下,并修改IKAnalyzer.cfg.xml

     <?xml version="1.0" encoding="UTF-8"?>
    <!DOCTYPE properties SYSTEM "#34;>  
    <properties>  
        <comment>IK Analyzer 扩展配置</comment>
        <!--用户可以在这里配置自己的扩展字典 -->
        <entry key="ext_dict">ext.dic;</entry> 

        <!--用户可以在这里配置自己的扩展停止词字典-->
        <entry key="ext_stopwords">stopword.dic;</entry> 
    </properties>  

2. 在ext.dic 里增加自己的扩展词典,例如,婴儿奶粉3段

     

注意: 记得将stopword.dic,ext.dic的编码方式为UTF-8 无BOM的编码方式。

最后

以上就把solr中文分词介绍完了,如有不足或不正确之处,欢迎大家批评指正,相互交流。

这个系列课程的完整源码,也会提供给大家。大家关注我的头条号( 章为忠学架构 )。获取这个系列课程的完整源码。

推荐阅读:

文章来源:智云一二三科技

文章标题:搜索引擎(八)中文分词IKAnalyzer的配置和使用

文章地址:https://www.zhihuclub.com/183268.shtml

关于作者: 智云科技

热门文章

发表回复

您的电子邮箱地址不会被公开。

网站地图