当前位置: 首页 > 工具软件 > JEasy > 使用案例 >

paoding, ik, jeasy,ictclas4j 四种切词工具的使用小结

卢权
2023-12-01

本来是通过表格来写这博客的,但对javaeye的表格编辑器实在是感到抱歉,还是通过纯文本来写好了...

 

最近因项目需要,对尝试了Paoding, Ik, Jeasy, Ictclas4j四种切词工具,现把使用经验小结一下:

测试的字符串是:“在传统意义上的几何学是研究图形的形状大小等性质”

 

 

1.Paoding

  版本: 2.0.4

  实现类: PaodingAnalyzer

  依赖包: lucene 2.4

  使用方法: 主要通过lucene的接口实现, Analyser#tokenStream方法

  切词效果: 传统/意义/意义上/上的/几何/几何学/研究/图形/形的/形状/大/大小/等/性质

  备注: paoding的切词会漏字(食字),上面的结果就食了 ‘在’ 字;

            总会进行最小粒度切分,只要在词库里有的词组,都会出现。如:之前-->前/之前

 

2.IK

  版本: 3.2.3

  实现类:IKSegmentation

  依赖包:无,可以不依赖于Lucene直接应用

  使用方法:

     IKSegmentation ik = new IKSegmentation(new StringReader(str1), false);// 最少粒度切分

     Lexeme le = null;

     while ((le = ik.next()) != null) {
                System.out.print(le.getLexemeText() + "/");
      }

  切词效果:

IK(最小粒度):在/传统/意义上/意义/的/几何学/几何/几/是/研究/图形/的/形状/大小/等/性质/


IK(最大粒度):在/传统/意义上/的/几何学/几/是/研究/图形/的/形状/大小/等/性质/

    备注:IK不会食字,

             在构造函数的第二个参数可以设定最小粒度和最大粒度,

             不依赖于Lucene

             但可以看到最大粒度也仍然会有重字的情况,几何学-->几何学/几,分成了两个词。

 

3.Jeasy/je-analysis-1.5.1.jar/ MMAnalyzer

  版本:1.5.1

  实现类:MMAnalyzer

  依赖包:依赖于Lucene2.4~2.9版本的包

  使用方法:

     很简单--> MMAnalyzer mm = new MMAnalyzer(); String result = mm.segment(str,splitor);

     splitor是切词后各词组的分隔符,这里使用'/'

  切词效果:传统/意义上/几何学/研究/图形/形状/大小/性质/

  备注:

     这个不开源的,不过感觉效果比其它都好,默认是正向最大匹配的

     会食字,但不会有重字

     本人觉得Jeasy占的内存比较大(因为我开始是paoding,Ik放一个类里同时进行测试的,当我加上Je也一起测试时,eclipse下总是报 outOfMemory的错误,我把eclipse的vm argument里调整了“-Xms256m  -Xmx1024m”,就可以了)

 

4.Ictclas4j

  版本:0.9.1

  实现类:SegTag

  依赖包:无,不依赖于Lucene

  使用方法:

        SegTag st = new SegTag(1);
        SegResult sr = st.split(str);
        System.out.println(sr.getFinalResult());

  切词效果:在/p 传统/n 意义/n 上/f 的/u 几何学/n 是/a 研究/n 图形/n 的/b 形状/n 大小/a 等/a 性质/n

  备注:

     这个项目是中科院做的,带词性分析的,原来是c++写的,有牛人改写成java的

     在官网上有几个版本,我这个是从google Code上下载的,把项目打包后,还要把项目里的Data文件夹放到应用的项目中才可以用。Data文件夹是保存字典的

    一个很大的坏处是:在eclipse里的java文件一定要保存为gbk编码才可以正常运行,utf-8是不能运行的

    不会食字,没有重字

 

小结:

  因项目需要,经多次比较,个人使用MMAnalyzer,感觉它比较智能,切的词比较符合常规。但会食字,我感觉比较不好,因为我在另外一个应用中,我想全部字都保留。因为切的语句都不长,效率方面没比较。

 

P.S. 这博客过了段时间才写的,其中有些依赖包记不清了,好像有几个要依赖于apache的commons里的包

 

 类似资料: