文本摘要方法有很多,主要分为抽取式和生成式,应用比较多的是抽取式,也比较简单,就是从文本中抽取重要的句子或段落。本方法主要是利用句子中的关键词的距离,主要思想和参考来自阮一峰的网络日志http://www.ruanyifeng.com/blog/2013/03/automatic_summarization.html
#!/user/bin/python
# coding:utf-8
__author__ = 'yan.shi'
import nltk
import numpy
import jieba
import codecs N=100#单词数量
CLUSTER_THRESHOLD=5#单词间的距离
TOP_SENTENCES=5#返回的top n句子 #分句
def sent_tokenizer(texts):
start=0
i=0#每个字符的位置
sentences=[]
punt_list='.!?。!?'.decode('utf8') #',.!?:;~,。!?:;~'.decode('utf8')
for text in texts:
if text in punt_list and token not in punt_list: #检查标点符号下一个字符是否还是标点
sentences.append(texts[start:i+1])#当前标点符号位置
start=i+1#start标记到下一句的开头
i+=1
else:
i+=1#若不是标点符号,则字符位置继续前移
token=list(texts[start:i+2]).pop()#取下一个字符
if start<len(texts):
sentences.append(texts[start:])#这是为了处理文本末尾没有标点符号的情况
return sentences #停用词
def load_stopwordslist(path):
print('load stopwords...')
stoplist=[line.strip() for line in codecs.open(path,'r',encoding='utf8').readlines()]
stopwrods={}.fromkeys(stoplist)
return stopwrods #摘要
def summarize(text):
stopwords=load_stopwordslist('E:\stopwords.txt')
sentences=sent_tokenizer(text)
words=[w for sentence in sentences for w in jieba.cut(sentence) if w not in stopwords if len(w)>1 and w!='\t']
wordfre=nltk.FreqDist(words)
topn_words=[w[0] for w in sorted(wordfre.items(),key=lambda d:d[1],reverse=True)][:N]
scored_sentences=_score_sentences(sentences,topn_words)
#approach 1,利用均值和标准差过滤非重要句子
avg=numpy.mean([s[1] for s in scored_sentences])#均值
std=numpy.std([s[1] for s in scored_sentences])#标准差
mean_scored=[(sent_idx,score) for (sent_idx,score) in scored_sentences if score>(avg+0.5*std)]
#approach 2,返回top n句子
top_n_scored=sorted(scored_sentences,key=lambda s:s[1])[-TOP_SENTENCES:]
top_n_scored=sorted(top_n_scored,key=lambda s:s[0])
return dict(top_n_summary=[sentences[idx] for (idx,score) in top_n_scored],mean_scored_summary=[sentences[idx] for (idx,score) in mean_scored]) #句子得分
def _score_sentences(sentences,topn_words):
scores=[]
sentence_idx=-1
for s in [list(jieba.cut(s)) for s in sentences]:
sentence_idx+=1
word_idx=[]
for w in topn_words:
try:
word_idx.append(s.index(w))#关键词出现在该句子中的索引位置
except ValueError:#w不在句子中
pass
word_idx.sort()
if len(word_idx)==0:
continue
#对于两个连续的单词,利用单词位置索引,通过距离阀值计算族
clusters=[]
cluster=[word_idx[0]]
i=1
while i<len(word_idx):
if word_idx[i]-word_idx[i-1]<CLUSTER_THRESHOLD:
cluster.append(word_idx[i])
else:
clusters.append(cluster[:])
cluster=[word_idx[i]]
i+=1
clusters.append(cluster)
#对每个族打分,每个族类的最大分数是对句子的打分
max_cluster_score=0
for c in clusters:
significant_words_in_cluster=len(c)
total_words_in_cluster=c[-1]-c[0]+1
score=1.0*significant_words_in_cluster*significant_words_in_cluster/total_words_in_cluster
if score>max_cluster_score:
max_cluster_score=score
scores.append((sentence_idx,max_cluster_score))
return scores; if __name__=='__main__':
dict=summarize(u'腾讯科技讯(刘亚澜)10月22日消息,'
u'前优酷土豆技术副总裁黄冬已于日前正式加盟芒果TV,出任CTO一职。'
u'资料显示,黄冬历任土豆网技术副总裁、优酷土豆集团产品技术副总裁等职务,'
u'曾主持设计、运营过优酷土豆多个大型高容量产品和系统。'
u'此番加入芒果TV或与芒果TV计划自主研发智能硬件OS有关。'
u'今年3月,芒果TV对外公布其全平台日均独立用户突破3000万,日均VV突破1亿,'
u'但挥之不去的是业内对其技术能力能否匹配发展速度的质疑,'
u'亟须招揽技术人才提升整体技术能力。'
u'芒果TV是国内互联网电视七大牌照方之一,之前采取的是“封闭模式”与硬件厂商预装合作,'
u'而现在是“开放下载”+“厂商预装”。'
u'黄冬在加盟土豆网之前曾是国内FreeBSD(开源OS)社区发起者之一,'
u'是研究并使用开源OS的技术专家,离开优酷土豆集团后其加盟果壳电子,'
u'涉足智能硬件行业,将开源OS与硬件结合,创办魔豆智能路由器。'
u'未来黄冬可能会整合其在开源OS、智能硬件上的经验,结合芒果的牌照及资源优势,'
u'在智能硬件或OS领域发力。'
u'公开信息显示,芒果TV在今年6月对外宣布完成A轮5亿人民币融资,估值70亿。'
u'据芒果TV控股方芒果传媒的消息人士透露,芒果TV即将启动B轮融资。')
print('-----------approach 1-------------')
for sent in dict['top_n_summary']:
print(sent)
print('-----------approach 2-------------')
for sent in dict['mean_scored_summary']:
print(sent)

下面是测试结果:

python实现的一个中文文本摘要程序的更多相关文章

  1. 用Python写的一个多线程机器人聊天程序

    本人是从事php开发的, 近来想通过php实现即时通讯(兼容windows).后来发现实现起来特别麻烦, 就想到python.听说这家伙在什么地方都能发挥作用.所以想用python来做通讯模块...所 ...

  2. 如何用java完成一个中文词频统计程序

    要想完成一个中文词频统计功能,首先必须使用一个中文分词器,这里使用的是中科院的.下载地址是http://ictclas.nlpir.org/downloads,由于本人电脑系统是win32位的,因此下 ...

  3. python 模拟实现一个ATM + 购物商城程序

    思路:ATM是一个单独程序,提供给消费的是一个接口core下的settlement.py,只做了个人的,没写管理的模块 Shopping也是一个单独的,只做了一个购物的消费模块,没写商家模块,偷懒用了 ...

  4. Python中判断一个中文是否中文数字的方法

    Python内置功能非常强大,在字符串内置函数中提供了一个判断字符串是否全数字的方法,而且这个方法不只是简单判断阿拉伯数字,包括中文数字和全角的阿拉伯数字都认识,这个函数就是字符串的isnumeric ...

  5. 初学python类编的一个求矩形小程序

    简单的程序不简单,里面包含类定义类,传参,初始化,方法调用,创建实例,格式输出.主要在python中随时定义变量随时用,我这道题题想好久就是我初识类,传参,不是所有参数都的加单引号.简单的东西,复杂话 ...

  6. 基于Text-CNN模型的中文文本分类实战 流川枫 发表于AI星球订阅

    Text-CNN 1.文本分类 转眼学生生涯就结束了,在家待就业期间正好有一段空闲期,可以对曾经感兴趣的一些知识点进行总结. 本文介绍NLP中文本分类任务中核心流程进行了系统的介绍,文末给出一个基于T ...

  7. 基于Text-CNN模型的中文文本分类实战

    Text-CNN 1.文本分类 转眼学生生涯就结束了,在家待就业期间正好有一段空闲期,可以对曾经感兴趣的一些知识点进行总结. 本文介绍NLP中文本分类任务中核心流程进行了系统的介绍,文末给出一个基于T ...

  8. 推荐 | 中文文本标注工具Chinese-Annotator(转载)

    自然语言处理的大部分任务是监督学习问题.序列标注问题如中文分词.命名实体识别,分类问题如关系识别.情感分析.意图分析等,均需要标注数据进行模型训练.深度学习大行其道的今天,基于深度学习的 NLP 模型 ...

  9. SnowNLP:一个处理中文文本的 Python 类库[转]

    SnowNLP是一个python写的类库,可以方便的处理中文文本内容,是受到了TextBlob的启发而写的,由于现在大部分的自然语言处理库基本都是针对英文的,于是写了一个方便处理中文的类库,并且和Te ...

随机推荐

  1. idea - maven子工程找不到父工程pom

    1.应该先构建父项目,再构建子项目.因为子项目依赖于父项目.即父项目先install到本地

  2. WordPress网站搬家数据迁移完整教程

    用本地环境搭建好的WordPress网站在做好之后如何从本地迁移到网络空间或者网络服务器上呢? 首先请确认你在本地建站的时候只做了themes里面的模版文件,如果只是自己改了下模版,那么网站在搬到服务 ...

  3. C# 面向对象8 值类型和引用类型

    值类型和引用类型 概念 示意图: 1.值类型,在栈中开辟一块空间,存储 2.引用类型,在堆中开辟一块空间,存储数据,然在栈中开辟一块空间存储堆中的数据的地址

  4. 刚接触SkyLine的一点小收获与感触

    因为刚接触Skyline不到一个星期,也怕把学习到的忘记掉,所以写一点学习到的一些皮毛的东西,赶紧记录一下,怕回头忘记 1.网上关于web端的开发非常多,也有很多牛人分享自己的经验,所以学习起来也相对 ...

  5. IDEA导入Eclipse 非Maven的Web项目

  6. luogu P4437 [HNOI/AHOI2018]排列

    luogu 问题本质是把\(a_i\)作为\(i\)的父亲,然后如果有环就不合法,否则每次要取数,要满足取之前他的父亲都被取过(父亲为0可以直接取),求最大价值 贪心想法显然是要把权值大的尽量放在后面 ...

  7. 2018年4月份,阿里最新的java程序员面试题目,仅供参考。

    目录 技术一面(23问) 技术二面(3大块) 性能优化(21点) 项目实战(34块) JAVA方向技术考察点(15点) JAVA开发技术面试中可能问到的问题(17问) 阿里技术面试1 1.Java I ...

  8. jquery中的obj.attr()和obj.data

    实例一 obj.attr('data-max-width','aa'): obj.data('max-width') 问题 data只会获取第一次select赋值的值 区别 .data每次是从jque ...

  9. String和StringBuffer的常见用法

    链接:https://www.nowcoder.com/questionTerminal/fe6b651b66ae47d7acce78ffdd9a96c7?answerType=1&f=dis ...

  10. css3中单位rem与.less结合布局

    rem是CSS3新增的一个相对单位(root em,根em),这个单位引起了广泛关注.这个单位与em有什么区别呢?区别在于使用rem为元素设定字体大小时,仍然是相对大小,但相对的只是HTML根元素. ...