目录
当前位置: 首页 > 文档资料 > Python 数据科学 >

Python word tokenization

优质
小牛编辑
135浏览
2023-12-01

单词标记化是将大量文本分割为单词的过程。 这是自然语言处理任务中的一项要求,其中每个单词都需要被捕获并进行进一步分析,例如对特定情绪进行分类和计数等。自然语言工具包(NLTK)是用于实现此目的的库。 在继续使用python程序进行单词标记化之前安装NLTK。

conda install -c anaconda nltk

接下来,我们使用word_tokenize方法将段落拆分为单个单词。

import nltk
word_data = "It originated from the idea that there are readers who prefer learning new skills from the comforts of their drawing rooms"
nltk_tokens = nltk.word_tokenize(word_data)
print (nltk_tokens)

当我们执行上面的代码时,它会产生以下结果。

['It', 'originated', 'from', 'the', 'idea', 'that', 'there', 'are', 'readers', 
'who', 'prefer', 'learning', 'new', 'skills', 'from', 'the',
'comforts', 'of', 'their', 'drawing', 'rooms']

标记句子

我们也可以对段落中的句子进行标记,就像我们对单词进行标记。 我们使用sent_tokenize方法来实现这一点。 以下是一个例子。

import nltk
sentence_data = "Sun rises in the east. Sun sets in the west."
nltk_tokens = nltk.sent_tokenize(sentence_data)
print (nltk_tokens)

当我们执行上面的代码时,它会产生以下结果。

['Sun rises in the east.', 'Sun sets in the west.']