本来是通过表格来写这博客的,但对javaeye的表格编辑器实在是感到抱歉,还是通过纯文本来写好了...
最近因项目需要,对尝试了Paoding, Ik, Jeasy, Ictclas4j四种切词工具,现把使用经验小结一下:
测试的字符串是:“在传统意义上的几何学是研究图形的形状大小等性质”
1.Paoding
版本: 2.0.4
实现类: PaodingAnalyzer
依赖包: lucene 2.4
使用方法: 主要通过lucene的接口实现, Analyser#tokenStream方法
切词效果: 传统/意义/意义上/上的/几何/几何学/研究/图形/形的/形状/大/大小/等/性质
备注: paoding的切词会漏字(食字),上面的结果就食了 ‘在’ 字;
总会进行最小粒度切分,只要在词库里有的词组,都会出现。如:之前-->前/之前
2.IK
版本: 3.2.3
实现类:IKSegmentation
依赖包:无,可以不依赖于Lucene直接应用
使用方法:
IKSegmentation ik = new IKSegmentation(new StringReader(str1), false);// 最少粒度切分
Lexeme le = null;
while ((le = ik.next()) != null) {
System.out.print(le.getLexemeText() + "/");
}
切词效果:
IK(最小粒度):在/传统/意义上/意义/的/几何学/几何/几/是/研究/图形/的/形状/大小/等/性质/
IK(最大粒度):在/传统/意义上/的/几何学/几/是/研究/图形/的/形状/大小/等/性质/
备注:IK不会食字,
在构造函数的第二个参数可以设定最小粒度和最大粒度,
不依赖于Lucene
但可以看到最大粒度也仍然会有重字的情况,几何学-->几何学/几,分成了两个词。
3.Jeasy/je-analysis-1.5.1.jar/ MMAnalyzer
版本:1.5.1
实现类:MMAnalyzer
依赖包:依赖于Lucene2.4~2.9版本的包
使用方法:
很简单--> MMAnalyzer mm = new MMAnalyzer(); String result = mm.segment(str,splitor);
splitor是切词后各词组的分隔符,这里使用'/'
切词效果:传统/意义上/几何学/研究/图形/形状/大小/性质/
备注:
这个不开源的,不过感觉效果比其它都好,默认是正向最大匹配的
会食字,但不会有重字
本人觉得Jeasy占的内存比较大(因为我开始是paoding,Ik放一个类里同时进行测试的,当我加上Je也一起测试时,eclipse下总是报 outOfMemory的错误,我把eclipse的vm argument里调整了“-Xms256m -Xmx1024m”,就可以了)
4.Ictclas4j
版本:0.9.1
实现类:SegTag
依赖包:无,不依赖于Lucene
使用方法:
SegTag st = new SegTag(1);
SegResult sr = st.split(str);
System.out.println(sr.getFinalResult());
切词效果:在/p 传统/n 意义/n 上/f 的/u 几何学/n 是/a 研究/n 图形/n 的/b 形状/n 大小/a 等/a 性质/n
备注:
这个项目是中科院做的,带词性分析的,原来是c++写的,有牛人改写成java的
在官网上有几个版本,我这个是从google Code上下载的,把项目打包后,还要把项目里的Data文件夹放到应用的项目中才可以用。Data文件夹是保存字典的
一个很大的坏处是:在eclipse里的java文件一定要保存为gbk编码才可以正常运行,utf-8是不能运行的
不会食字,没有重字
小结:
因项目需要,经多次比较,个人使用MMAnalyzer,感觉它比较智能,切的词比较符合常规。但会食字,我感觉比较不好,因为我在另外一个应用中,我想全部字都保留。因为切的语句都不长,效率方面没比较。
P.S. 这博客过了段时间才写的,其中有些依赖包记不清了,好像有几个要依赖于apache的commons里的包