首页 > 代码库 > 我与solr(六)--solr6.0配置中文分词器IK Analyzer

我与solr(六)--solr6.0配置中文分词器IK Analyzer

转自:http://blog.csdn.net/linzhiqiang0316/article/details/51554217,表示感谢。

 由于前面没有设置分词器,以至于查询的结果出入比较大,并且无法进行正确的高亮显示。现在配置一下分词器来解决相关问题。

  solr6.0中进行中文分词器IK Analyzer的配置和solr低版本中最大不同点在于IK Analyzer中jar包的引用。一般的IK分词jar包都是不能用的,因为IK分词中传统的jar不支持solr6.0这个高版本的,所以就会发送运行错误的界面。下面就来介绍一下solr6.0中中文分词器IK Analyzer的配置。

步骤1:

  下载solr6.0专用的IK Analyzer的jar包和相应的配置文件。因为IK Analyzer可以很方便的对词库近些年扩展,所以我在IK Analyzer中加入了搜狗词库的配置,可以最大限度的收录现在一些潮流的词语。  IK Analyzer的jar包和相应的配置文件下载地址:点击打开链接

步骤2:

  解压上一个步骤所得到的压缩包,将ik-analyzer-solr5-5.x.jar这个jar包放入solr项目下的WEB-INF\lib目录中去,将IKAnalyzer.cfg.xml,mydict.dic(搜狗的扩展词库),stopword.dic放在solr项目下的WEB-INF\classes目录中去。

步骤3:

  将项目下solrhome\mynode\conf下的managed-schema配置文件中</schema>上面加入如下配置信息:

<fieldType name="text_ik" class="solr.TextField">          <analyzer class="org.wltea.analyzer.lucene.IKAnalyzer"/>      </fieldType>

步骤4:

  启动Tomcat,打开solr项目主页进行测试。测试结果如下:

技术分享

 

我与solr(六)--solr6.0配置中文分词器IK Analyzer