python文本分析的开源工具_共有11款Python 中文分词库开源软件

蒋弘致
2023-12-01

"哑哈"中文分词,更快或更准确,由你来定义。通过简单定制,让分词模块更适用于你的需求。 "Yaha" You can custom your Chinese Word Segmentation efficiently by using Yaha 基本功能: 精确模式,将句子切成最合理的词。 全模式,所有的可能词都被切成词... 更多Yaha信息

jieba "结巴"中文分词:做最好的Python中文分词组件 "Jieba" Feature 支持三种分词模式: 精确模式,试图将句子最精确地切开,适合文本分析; 全模式,把句子中所有的可以成词的词语都扫描出来, 速度非常快,但是不能解决歧义; 搜索引擎模式,在精确模式... 更多jieba信息

smallseg -- 开源的,基于DFA的轻量级的中文分词工具包 特点:可自定义词典、切割后返回登录词列表和未登录词列表、有一定的新词识别能力。 Python 示例代码: s3 = file("text.txt").read() words = [x.rstrip() for x in file("main.dic") ] from small... 更多smallseg信息

finalseg -> Chinese Words Segment Library in Python based on HMM Model 基于HMM模型的中文分词 用法 将finalseg目录放置于当前目录或者site-packages目录 import finalseg 代码示例 import finalseg sentence_list = [ "姚晨和老凌离婚了", "他说的确... 更多finalseg信息

Genius Genius是一个开源的python中文分词组件,采用 CRF(Conditional Random Field)条件随机场算法。 Feature 支持python2.x、python3.x以及pypy2.x。 支持简单的pinyin分词 支持用户自定义break 支持用户自定义合并词典 支持词性标注 Source Install 安装... 更多genius中文分词信息

TextRank4ZH 用于自动从中文文本中提取关键词和摘要,基于 TextRank 算法,使用 Python 编写。 TextRank 算法可以用来从文本中提取关键词和摘要(重要的句子)。TextRank4ZH是针对中文文本的TextRank算法的python算法实现。 安装 本程序使用python 2.7测试... 更多TextRank4ZH信息

TextGrocery 是一个基于SVM算法的短文本分类工具,内置了结巴分词,让文本分类变得简单。 示例代码: >>> from tgrocery import Grocery # 新开张一个杂货铺,别忘了取名! >>> grocery = Grocery('sample') # 训练文本可以用列表传入 >>> train_src = [ ... 更多TextGrocery信息

python-nlpir是NLPIR的一个python封装。NLPIR是目前运用最为广泛的中文分词工具。目前该软件支持Windows和Linux。 更多python-nlpir信息

snailseg Chinese Words Segment Library in Python 简单的中文分词库 在线分词效果展示 https://snailsegdemo.appspot.com/ Usage 将snailseg目录放置于当前目录或者site-packages目录 import snailseg 代码示例 import snailseg words = snailseg.cut("... 更多snailseg信息

scseg中文分词,是基于mmseg的简单分词组件 Feature 支持pinyin分词 支持用户自定义词典 支持单位合并 支持汉字数字识别 Install pip install scseg 通过import scseg来引用 Algorithm 采用mmseg算法进行切分 采用规则方式支持中文数字分词 功能 1):分词s... 更多scseg信息

这是一个简单的中文分词程序,可以在没有语料库的情况下通过各个词语的相关度将中文词汇抽取出来 具体的理论可以参看Matrix67的博客文章: http://www.matrix67.com/blog/archives/5044 我只是把这个算法进行了实现而已。 该程序写得比较着急,还有很多... 更多ChineseWordSegmentation信息

 类似资料: