首页 > 代码库 > 【Python】用Python的“结巴”模块进行分词

【Python】用Python的“结巴”模块进行分词

            之前都是用计算所的分词工具进行分词,效果不错可是比較麻烦,近期開始用Python的“结巴”模块进行分词,感觉很方便。这里将我写的一些小程序分享给大家,希望对大家有所帮助。

以下这个程序是对一个文本文件中的内容进行分词的程序:test.py

#!/usr/bin/python
#-*- encoding:utf-8 -*-
import jieba                                                    #导入jieba模块

def splitSentence(inputFile, outputFile):
    fin = open(inputFile, 'r')                                  #以读的方式打开文件
    fout = open(outputFile, 'w')                                #以写得方式打开文件

    for eachLine in fin:
        line = eachLine.strip().decode('utf-8', 'ignore')       #去除每行首尾可能出现的空格,并转为Unicode进行处理
        wordList = list(jieba.cut(line))                        #用结巴分词,对每行内容进行分词
        outStr = ''
        for word in wordList:
            outStr += word
            outStr += '/ '
        fout.write(outStr.strip().encode('utf-8') + '\n')       #将分词好的结果写入到输出文件
    fin.close()
    fout.close()

splitSentence('myInput.txt', 'myOutput.txt')

写完程序之后,在Linux重点输入:python test.py就可以执行程序进行分词。


输入的文件内容例如以下所看到的:

技术分享

经过结巴分词后,输出结果例如以下所看到的:

技术分享


注意:第11行的 jieba.cut()返回的结构是一个可迭代的generator,能够用list(jieba.cut(...))转化为list



【Python】用Python的“结巴”模块进行分词