博客
关于我
强烈建议你试试无所不能的chatGPT,快点击我
结巴分词使用
阅读量:7243 次
发布时间:2019-06-29

本文共 728 字,大约阅读时间需要 2 分钟。

hot3.png

  • 结巴分词的模式:

jieba支持三种分词模式:

      *精确模式,试图将句子最精确地切开,适合文本分析;

  *全模式,把句子中所有的可以成词的词语都扫描出来, 速度非常快,但是不能解决歧义;

  *搜索引擎模式,在精确模式的基础上,对长词再次切分,提高召回率,适合用于搜索引擎分词。

主要采用以下算法:

  *基于Trie树结构实现高效的词图扫描,生成句子中汉字所有可能成词情况所构成的有向无环图(DAG)

  *采用了动态规划查找最大概率路径, 找出基于词频的最大切分组合

  *对于未登录词,采用了基于汉字成词能力的HMM模型,使用了Viterbi算法

  • jieba分词使用:

#coding=utf-8

import jieba
import jieba.posseg as pseg
import time
t1=time.time()
f=open("t_with_splitter.txt","r") #读取文本
string=f.read().decode("utf-8")

words = pseg.cut(string) #进行分词

result=""  #记录最终结果的变量
for w in words:
     result+= str(w.word)+"/"+str(w.flag) #加词性标注

f=open("text.txt","w")  #将结果保存到另一个文档中

f.write(result)
f.close()
t2=time.time()
print("分词及词性标注完成,耗时:"+str(t2-t1)+"秒。") #反馈结果

        

  

 

转载于:https://my.oschina.net/u/2245485/blog/793915

你可能感兴趣的文章
AbstractQueuedSynchronizer 队列同步器(AQS)
查看>>
构建可读性更高的 ASP.NET Core 路由
查看>>
#学习笔记-sql# union实例及用法
查看>>
html-webpack-plugin
查看>>
Promise源码实现2
查看>>
警告WIN10用户!Disk Cleanup可能会误删下载活页夹
查看>>
java B2B2C Springcloud电子商务平台源码-eureka集群整合config配置中心
查看>>
小猿圈python之打印输出九九乘法表
查看>>
支配vue框架模版语法之v-else
查看>>
CentOS7 0安装Maven
查看>>
Python脚本--利用运算符重载简化MongoDB的命令
查看>>
Dart 到底是不是空安全的
查看>>
大三这一年的求职感悟(附网易面经+学习经历)|掘金技术征文
查看>>
mpvue小程序踩坑之旅
查看>>
「干货」细说 Javascript 中的浮点数精度丢失问题(内附好课推荐)
查看>>
Potential leak of an object stored into ''
查看>>
挑选云服务器时,哪方面的配置最重要
查看>>
vue页面位置问题
查看>>
面向对象
查看>>
写一个有字符界面的ssh链接工具
查看>>