solr6.0中进行中文分词器IK Analyzer的配置和solr低版本中最大不同点在于IK Analyzer中jar包的引用。一般的IK分词jar包都是不能用的,因为IK分词中传统的jar不支持solr6.0这个高版本的,所以就会发送运行错误的界面。下面就来介绍一下solr6.0中中文分词器IK Analyzer的配置。
步骤1:
下载solr6.0专用的IK Analyzer的jar包和相应的配置文件。因为IK Analyzer可以很方便的对词库近些年扩展,所以我在IK Analyzer中加入了搜狗词库的配置,可以最大限度的收录现在一些潮流的词语。 IK Analyzer的jar包和相应的配置文件下载地址:点击打开链接
步骤2:
解压上一个步骤所得到的压缩包,将ik-analyzer-solr5-5.x.jar这个jar包放入solr项目下的WEB-INFlib目录中去,将IKAnalyzer.cfg.xml,mydict.dic(搜狗的扩展词库),stopword.dic放在solr项目下的WEB-INFclasses目录中去。
步骤3:
将项目下solrhomemynodeconf下的managed-schema配置文件中</schema>上面加入如下配置信息:(如果这里不懂的话可以去看我前几篇的博客关于solr6.0项目的环境的配置 连接地址:点击打开链接)
代码语言:javascript复制<span style="font-size:14px;"> <fieldType name="text_ik" class="solr.TextField">
<analyzer class="org.wltea.analyzer.lucene.IKAnalyzer"/>
</fieldType>
<field name="text_ik" type="text_ik" indexed="true" stored="true" multiValued="false" /></span>
步骤4:
启动Tomcat,打开solr项目主页进行测试。测试结果如下:
结合上一讲的MYSQL数据库配置,这里我集成了solr6.0 mysql5.0 IK Analyzer分词。如果有兴趣的可以下载下来看看,下载地址:点击打开链接