导语:最近想分析一下自己在学校论坛bt的下载行为,又想耍帅,所以准备整个词云。而词云的数据来源必然是下载种子的名称、类型等。所以不可避免要针对所有下载种子做关键词检索,因此需要用到中文分词工具。因为我利用nodejs,所以在网上查找了很多资料,发现nodejie是个不错的选择。好吧,说实话主要是看了月影大大的使用 Node.js 对文本内容分词和关键词抽取这篇文章做出的选择。
nodejieba的Github介绍为:NodeJieba是”结巴”中文分词的 Node.js 版本实现, 由CppJieba提供底层分词算法实现, 是兼具高性能和易用性两者的 Node.js 中文分词组件。其特点有:词典载入方式灵活,无需配置词典路径也可使用,需要定制自己的词典路径时也可灵活定制;底层算法实现是C++,性能高效;支持多种分词算法;支持动态补充词库。而且安装只需要npm install nodejieba
,是不是有些心动了?其实看了我就迫不接待想要试试了。但却卡在安装上了。我发现安装其实并不是像文档说的那么简单。下面说说几个坑。
npm install --global --production windows-build-tools
命令可以帮你完成所需环境的安装。好了,费了很大的劲,终于装好了,可以愉快的使用了。效果感觉还是不错的。