欢迎投稿

今日深度:

solr中文分词,

solr中文分词,


solr中文分词。
solr5.0 自带一个中文分词包,lucene-analyzers-smartcn-5.0.0.jar。 在安装目录下搜寻找到,并copy到solr提供的web服务目录的lib目录下。
修改collection配置里面的schema.xml。新增字段类型。

<fieldType name="text_cn" class="solr.TextField" positionIncrementGap="100">
<analyzer type="index">
<!-- 此处需要配置主要的分词类 -->
<tokenizer class="solr.SmartChineseSentenceTokenizerFactory"/>
<filter class="solr.SmartChineseWordTokenFilterFactory"/>
</analyzer>
<analyzer type="query">
<!-- 此处配置同上 -->
<tokenizer class="solr.SmartChineseSentenceTokenizerFactory"/>
<filter class="solr.SmartChineseWordTokenFilterFactory"/>
</analyzer>
</fieldType>



启动solr cloud服务,新建collection就好。

www.htsjk.Com true http://www.htsjk.com/solr/35824.html NewsArticle solr中文分词, solr中文分词。 solr5.0 自带一个中文分词包,lucene-analyzers-smartcn-5.0.0.jar。 在安装目录下搜寻找到,并copy到solr提供的web服务目录的lib目录下。 修改collection配置里面的sch...
相关文章
    暂无相关文章
评论暂时关闭