一、NLTK进行分词用到的函数:nltk.sent_tokenize(text) #对文本按照句子进行分割nltk.word_tokenize(sent) #对句子进行分词二、NLTK进行词性标注用到的函数:nltk.pos_tag(tokens)#tokens是句子分词后的结果,同样是句子级的标注!