最新动态
python中jieba库使用教程
2024-10-31 23:41

jieba是python的一个中文分词库,下面介绍它的使用方法。

python中jieba库使用教程

下面介绍下jieba的主要功能,具体信息可参考github文档:https://github.com/fxsjy/jieba

分词

jieba常用的三种模式

  1. 精确模式,试图将句子最精确地切开,适合文本分析
  2. 全模式,把句子中所有的可以成词的词语都扫描出来, 速度非常快,但是不能解决歧义
  3. 搜索引擎模式,在精确模式的基础上,对长词再次切分,提高召回率,适合用于搜索引擎分词。

可使用  和  方法进行分词,两者所返回的结构都是一个可迭代的 generator,可使用 for 循环来获得分词后得到的每一个词语(unicode,或者直接使用  以及  返回 list。

 :使用该方法可以自定义分词器,可以同时使用不同的词典。 为默认分词器,所有全局分词相关函数都是该分词器的映射。

 和  可接受的参数如下

  1. 需要分词的字符串(unicode 或 UTF-8 字符串、GBK 字符串
  2. cut_all:是否使用全模式,默认值为 
  3. HMM:用来控制是否使用 HMM 模型,默认值为 

 和  接受 2 个参数

  1. 需要分词的字符串(unicode 或 UTF-8 字符串、GBK 字符串
  2. HMM:用来控制是否使用 HMM 模型,默认值为 

需要注意的是,尽量不要使用 GBK 字符串,可能无法预料地错误解码成 UTF-8。

三种分词模式的比较

自定义词典

开发者可以指定自己自定义的词典,以便包含 jieba 词库里没有的词。
用法: jieba.load_userdict(dict_path)

dict_path:为自定义词典文件的路径

词典格式如下

一个词占一行;每一行分三部分:词语、词频(可省略)、词性(可省略,用空格隔开,顺序不可颠倒。

下面使用一个例子说明一下

自定义字典 user_dict.txt

下面比较下精确匹配、全匹配和使用自定义词典的区别

从上面的例子中可以看出,使用自定义词典与使用默认词典的区别。

jieba.add_word():向自定义字典中添加词语

关键词提取

可以基于 TF-IDF 算法进行关键词提取,也可以基于TextRank 算法。 TF-IDF 算法与 elasticsearch 中使用的算法是一样的。

使用 jieba.analyse.extract_tags() 函数进行关键词提取,其参数如下

jieba.analyse.extract_tags(sentence, topK=20, withWeight=False, allowPOS=())

  1. sentence 为待提取的文本
  2. topK 为返回几个 TF/IDF 权重最大的关键词,默认值为 20
  3. withWeight 为是否一并返回关键词权重值,默认值为 False
  4. allowPOS 仅包括指定词性的词,默认值为空,即不筛选
  5. jieba.analyse.TFIDF(idf_path=None) 新建 TFIDF 实例,idf_path 为 IDF 频率文件

也可以使用 jieba.analyse.TFIDF(idf_path=None) 新建 TFIDF 实例,idf_path 为 IDF 频率文件。

基于 TF-IDF 算法和TextRank算法的关键词抽取

上面的代码是读取文件,提取出现频率最高的前12个词。

词性标注

词性标注主要是标记文本分词后每个词的词性,使用例子如下

    以上就是本篇文章【python中jieba库使用教程】的全部内容了,欢迎阅览 ! 文章地址:http://dfvalve.xrbh.cn/quote/5663.html 
     行业      资讯      企业新闻      行情      企业黄页      同类资讯      网站地图      返回首页 迅博思语资讯移动站 http://keant.xrbh.cn/ , 查看更多