TF-IDF与主题模型 - NLP学习(3-2)
N-grams模型、停顿词(stopwords)和标准化处理 - NLP学习(2)
在上一篇博文中,简单地阐述了如何将文本向量化及词袋模型的。文本向量化是为了将文本转换成机器学习算法可以直接处理的数字,直白点说就是这些转换后数字代表了文本的特征(此过程称之为特征提取或者特征编码),可以直接为机器学习模型所用。词袋模型(Bag-of-Words: BOW)则指的是统计单词在一个文本中出现的次数的表现形式(occurence of words within a specific document),主要是考量文本的两个方面:
- 展现文本中出现的已知的词汇 --- 词汇量;
- 量化单词的存在。
而之所以称之为词袋主要是因为该方式忽略了文本本来的有序性和结构性。一般词袋模型主要是用来衡量文档的相似性,因为两个类似的文档所含有的类似的文本内容。紧接着,就可以用BOW来做进一步分析,如语意分析等。在这篇博文中,将主要阐述如何从词袋模型过度到TF-IDF词袋模型,接着解释TF-IDF是如何被运用到主题模型中的。
主题模型
1.1 齐波夫定律(Zipf's Law)
在正式介绍TF-IDF之前,先看看什么是齐波夫定律,因为这样子有助于理解TF-IDF的含义。下面是关于英文的介绍:
“Zipf's Law describes that given some corpus of natural language utterances, the frequency of any word is inversely proportional to its rank in the frequency table.”
上面这段话表述的是:给定一个文档,任何一个单词出现的频次是与其在频次表(很多地方用的频率,这里用频次是为了做一定的区分,频率想表述的是一种占比关系,频次则说明次数的问题)上的位置(排名)成反比的。比如说一个单词出现在频次表上的第一位,那么它出现的次数基本(非严格意义)是排在第二位的单词出现的次数的2倍,第三位的3倍,以此推断下去。上面有说非严格意义的意思是说,并不是精准的两倍三倍的差距,而是说在一个文本足够大的情况下是如此。
1.2 主题模型(Topic Modelling)
知道一个文本各个单词的出现的频次可以提供给机器学习算法一些初步的特征,但是单单知道单词的频次并不能赋予我们做更多的事,也无从得知某个单词对于该文档的重要性。这里正式引入逆文本频率指数(IDF:Inverse Doccument Frequency),通过了解IDF来引出最终所需要的TF-IDF整个计算公式和运用。TF-IDF的意思是:如果一个单词(文本标识符)出现在一个文档中的次数越多,但是却很少出现在其他文档中,那么就可以假设这个单词在这个特定的文本中的分量是很重要的。具体的计算公式如下:
IDF = total number of documents (文本集含有的文本总数) / the number of documents contain a term (含有特定单词的文本数)
举个例子,假设我们现在有一个文本集,这个文本集一共含有5个不同的文本内容,其中3个文本含有‘China’这个单词,那么IDF('China') = 5 / 3 = 1.67。但是直接拿IDF来衡量一个单词在一个文本中的重要性,那样子显然会碰到一个问题,那就是数量级问题。比如我们有一个文本集,该文本集有100万个文档,在这100个文档中寻找apple这个单词,已知只有一个文本含有apple这个单词,又已知有10个文档含有orange这单词,那么可以得到这两个单词的IDF分别为:100万和10万,通过这个例子可以看到量级差别太巨大,并不适合比较,所以在处理这样子情况下建议引入log()和exp()函数来让单词的出现的频次和文档频次处于统一水平,这样子做的好处是后期计算得到的TF-IDF值会是均匀分布(uniformly distributed)。通过引入log,这个时候之前关于查找apple和orange的例子就会变成:
IDF('apple') = log(1000000/1) = 6
IDF('orange') = log(1000000/10) = 5
综上,假设一个标识符 t 出现在一个文本集 D 中的特定文档 d 的频率可以定义为:
TF(t, d) = number of t appears in document d /total tokens in document d
IDF(t, D) = log(number of documents / number of documents containing t)
TF-IDF(t, d, D) = TF * IDF
从上述公式可以看出,如果一个单词出现在特定文档的次数越多,那么IDF的值也会相应的增大,紧接着TF-IDF的权重也会变大。这也就是说明了TF-IDF的值可以帮助理解一个文档想要表达的或者帮助理解主题模型,因为按照之前的假设,一个单词出现次数越多越能表达一个文档想要表达的意思(注意停顿词等的影响要去除)。下面代码简单描述了如何计算TF-IDF向量:
import copy
from nltk.tokenize import TreebankWordTokenizer
from collections import OrderedDict docs = ["The faster Harry got to the store, the faster and faster Harry would get home."]
docs.append("Harry is hairy and faster than Jill.")
docs.append("Jill is not as hairy as Harry.") tokenizer = TreebankWordTokenizer() doc_tokens = [] for doc in docs:
doc_tokens += [sorted(tokenizer.tokenize(doc.lower()))]
all_doc_tokens = sum(doc_tokens, [])
lexicon = sorted(set(all_doc_tokens))
zero_vector = OrderedDict((token, 0) for token in lexicon) document_tfidf_vectors = []
for doc in docs: vec = copy.copy(zero_vector)
tokens = tokenizer.tokenize(doc.lower())
token_counts = Counter(tokens) for key, value in token_counts.items():
docs_containing_key = 0
for _doc in docs:
if key in _doc:
docs_containing_key += 1
tf = value / len(lexicon)
if docs_containing_key:
idf = len(docs) / docs_containing_key
else:
idf = 0
vec[key] = round(tf * idf, 4)
document_tfidf_vectors.append(vec)
TF-IDF与主题模型 - NLP学习(3-2)的更多相关文章
- LDA算法 (主题模型算法) 学习笔记
转载请注明出处: http://www.cnblogs.com/gufeiyang 随着互联网的发展,文本分析越来越受到重视.由于文本格式的复杂性,人们往往很难直接利用文本进行分析.因此一些将文本数值 ...
- NLP传统基础(2)---LDA主题模型---学习文档主题的概率分布(文本分类/聚类)
一.简介 https://cloud.tencent.com/developer/article/1058777 1.LDA是一种主题模型 作用:可以将每篇文档的主题以概率分布的形式给出[给定一篇文档 ...
- 算法工程师进化-NLP之主题模型
1 引言 主题模型是文本挖掘的重要工具,近年来在学术界和工业届都获得了非常多的关注.学术界的工作主要集中在建模层面,即提出各种各样的主题模型来适应不同的场景,因此缺乏指导主题模型在工业场景落地的资源和 ...
- NLP学习(2)----文本分类模型
实战:https://github.com/jiangxinyang227/NLP-Project 一.简介: 1.传统的文本分类方法:[人工特征工程+浅层分类模型] (1)文本预处理: ①(中文) ...
- 文本分类学习(三) 特征权重(TF/IDF)和特征提取
上一篇中,主要说的就是词袋模型.回顾一下,在进行文本分类之前,我们需要把待分类文本先用词袋模型进行文本表示.首先是将训练集中的所有单词经过去停用词之后组合成一个词袋,或者叫做字典,实际上一个维度很大的 ...
- NLP学习(1)---Glove模型---词向量模型
一.简介: 1.概念:glove是一种无监督的Word representation方法. Count-based模型,如GloVe,本质上是对共现矩阵进行降维.首先,构建一个词汇的共现矩阵,每一行是 ...
- LDA( Latent Dirichlet Allocation)主题模型 学习报告
1 问题描述 LDA由Blei, David M..Ng, Andrew Y..Jordan于2003年提出,是一种主题模型,它可以将文档集中每篇文档的主题以概率分布的形式给出,从而通过分析一 ...
- 用scikit-learn学习LDA主题模型
在LDA模型原理篇我们总结了LDA主题模型的原理,这里我们就从应用的角度来使用scikit-learn来学习LDA主题模型.除了scikit-learn, 还有spark MLlib和gensim库 ...
- Familia:百度NLP开源的中文主题模型应用工具包
参考:Familia的Github项目地址.百度NLP专栏介绍 Familia 开源项目包含文档主题推断工具.语义匹配计算工具以及基于工业级语料训练的三种主题模型:Latent Dirichlet A ...
随机推荐
- 02_Linux 终端命令格式
01. 终端命令格式 command [-options] [parameter] 说明: command:命令名,相应功能的英文单词或单词的缩写 [-options]:选项,可用来对命令进行控制,也 ...
- MvcApplication 中方法的那点事
最近比较闲,不知道干点啥,想找兼职没有合适的,不找工资又不够花,o(︶︿︶)o 唉! 说多了都是泪,入正题吧. 首先,新建一个MVC4.0项目,建好之后打开Global.asax文件,在MVCAppl ...
- Mvc5 控制器,视图简单说明
本系列会比Mvc4更详细.Mvc4记录或没记录的东西这里也会提到. 控制器 自动装配: 一般自动装配对于添加的时候比较好用 视图: 控制器返回的视图,其实就是一些静态的HTML.动态性不好,从控制器传 ...
- 使用 Cordova(PhoneGap)构建Android程序
移动终端开发随着智能手机的普及变得越来越热,什么项目都想移动一把,但反观要去学这些各个终端的控件使用,实属不易,又特别是每个终端的控件及所用语言都各不相同,使得这种学习变得更加困难. 有没有一种简单的 ...
- Object C学习笔记23-继承,重写,重载(转)
前面的学习都一直在使用Object C对象,但是没有具体总结过Object C中的对象使用特性,这里简单总结一下. 一. 继承 在面向对象编程中,子类可以通过继承得到父类的可以继承的的属性和方法,在 ...
- python中and,or
在很多逻辑语句中,常常会出现and,or这两个逻辑运算符. 下面直接上代码 print(0 or None) #None ''' or比较运算符: 当or旁两边都是真的话,那么会取第一个值 当or两边 ...
- 『ACM C++』HDU杭电OJ | 1415 - Jugs (灌水定理引申)
今天总算开学了,当了班长就是麻烦,明明自己没买书却要带着一波人去领书,那能怎么办呢,只能说我善人心肠哈哈哈,不过我脑子里突然浮起一个念头,大二还要不要继续当这个班委呢,既然已经体验过就可以适当放下了吧 ...
- atan和atan2反正切计算
typedef struct point { double x, y; }point; //给定两个点 point a(x1,y1),b(x2,y2); 使用反三角函数atan求斜率,原型如下 flo ...
- Keepalived 配置高可用
VRRP协议及Keepalived原理使用 VRRP 协议即 Virtual Router Redundancy Protocol,虚拟路由器冗余协议, 为了解决局域网内默认网关单点失效的问题. ...
- 构建高可靠hadoop集群之4-保全模式
本文主要翻译自http://hadoop.apache.org/docs/r2.8.0/hadoop-project-dist/hadoop-common/SecureMode.html 译注:之所以 ...