文本表征:SoW、BoW、TF-IDF、Hash Trick、doc2vec、DBoW、DM
原文地址:https://www.jianshu.com/p/2f2d5d5e03f8
一、文本特征
(一)基本文本特征提取
- 词语数量
常,负面情绪评论含有的词语数量比正面情绪评论更多。 - 字符数量
常,负面情绪评论含有的字符数量比正面情绪评论更多。 - 平均词汇长度
平均词汇长度=所有单词长度/单词个数。 - 停用词数量
有时,计算停用词的数量可以提供去除停用词后失去的额外信息。 - 特殊字符数量
如"#"、"@"等的数量。 - 数字的数量
并不常用,但在相似任务中常比较有用。 - 大写单词的数量
......
(二)文本的预处理
小写转换、去除标点符号、停用词去除、常见词去除、稀缺词去除、拼写校对、分词、词干提取、词性还原 ......
词形还原(lemmatization),是把一个任何形式的语言词汇还原为一般形式;而词干提取(stemming)是抽取词的词干或者词根形式,不一定能够表达完整语义。
(三)高级文本处理
- N-grams
若太短,则无法捕获重要信息;若太长,则捕获的信息基本是一样的,没有差异性。 - 词频TF
- 反转文档频率IDF
- 词频-反转文档频率TF-IDF
- 词集模型SoW、词袋模型BoW
- 评测情感
例如使用NLTK自带方法。 - 词向量
- 文本向量
......
二、SoW & BoW
当将文本表示为词相关的向量时,向量的维度值为总词汇数。
词集模型(Set of Words, SoW)中,如果向量维度位置对应的词出现在文本中,则该处值为1,否则为0。
除了考虑词是否出现外,词袋模型(Bag of Words, BoW)还考虑其出现次数,即每个文本向量在其对应词处取值为该词在文本中出现次数,未出现则为0。
但是,用词频来衡量该词的重要性是存在问题的。比如"the",它的词频很高,但其实它没有那么重要。所以可以使用TF-IDF特征来统计修正词频。
修正后的向量依旧存在数据稀疏的问题,大部分值为0,常使用Hash Trick进行降维。
(一) TF-IDF
TF-IDF是一种统计方法,用以评估一字词对于一个文件集或一个语料库中的其中一份文件的重要程度。
字词的重要性随着它在文件中出现的次数成正比增加,但同时会随着它在语料库中出现的频率成反比下降。
TF(term frequency):词在当前文本中的词频;
IDF(inverse document frequency):包含该词的文本在语料库中出现频率的倒数的对数,即:
\[IDF(x)=log{N \over N(x)}\]
其中,\(N\)是语料库中文本的总数,\(N(x)\)是语料库中包含词\(x\)的文本的总数。
常见的IDF平滑公式之一:
\[IDF(x)=log{N+1 \over N(x)+1}+1\]
最终,词\(x\)的TF-IDF值:
\[TF{-}IDF(x)=TF(x)*IDF(x)\]
(二)Hash Trick
哈希函数\(h\)将第\(i\)个特征哈希到位置\(j\),即\(h(i)=j\)。那么,第\(i\)个原始特征的词频数值\(c(i)\)将会累积到哈希后的第\(j\)个特征的词频数值\(c'(j)\)上,即:\[c'(j)=\sum_{i\in J;h(i)=j}c(i)\]
其中\(J\)是原始特征的维度。
但这样做存在一个问题,有可能两个原始特征哈希后位置相同,导致词频累加后特征值突然变大。
为了解决这个问题,出现了hash trick的变种signed hash trick,多了一个哈希函数\({\xi}:N{\rightarrow}{\pm}1\),此时,我们有:
\[c'(j)=\sum_{i\in J;h(i)=j}{\xi}(i)c(i)\]
这样做的好处是,哈希后的特征值仍然是一个无偏的估计,不会导致某些哈希位置的值过大。从实际应用中来说,由于文本特征的高稀疏性,这么做是可行的。
注意hash trick降维后的特征已经不知道其代表的特征和意义,所以其解释性不强。
一般来说,只要词汇表的特征不至于太大,大到内存不够用,肯定是使用一般意义的向量化比较好。因为向量化的方法解释性很强,我们知道每一维特征对应哪一个词,进而我们还可以使用TF-IDF对各个词特征的权重进行修改,进一步完善特征的表示。
而Hash Trick一般使用在大规模机器学习上。此时我们的词汇量极大,使用向量化方法内存可能不够用,而使用Hash Trick降维速度很快,降维后的特征仍然可以帮我们完成后续的分类和聚类工作。当然由于分布式计算框架的存在,其实一般我们不会出现内存不够的情况。因此,实际工作中常常使用的都是特征向量化。
三、doc2vec
(一)DBoW
Distributed Bag of Words(DBoW)在给定文档向量的情况下预测文档中一组随机单词的概率。和Skip-Gram很像。
DBoW模型的输入是文档向量,预测的是该文档中随机抽样的单词。在SGD的每一次迭代中采样一个文本窗口,再从该文本窗口中随机采样一个词,从而形成一个给定段落向量进行词预测的多分类的任务。
(二)DM
Distributed Memory(DM)在给定文档向量和上下文的情况下预测单词的概率。和CBoW很像。
DM模型在训练时,首先将每个文档id和语料库中的所有词初始化为一个\(k\)维的向量,然后将文档向量和上下文的向量输入模型,隐藏层将这些向量进行累加或取均值或拼接得到中间向量,作为输出层softmax的输入。
(三)小结
不同的文档具有不同的文档向量,但是不同文档中的相同词具有相同的词向量。在一个文档的训练过程中,文档id保持不变,共享着同一个文档向量,相当于在预测单词的概率时,都利用了整个文档的语义。
其主要优点是文档向量的获取过程中,可以对没有标记的数据集进行训练。
文本表征:SoW、BoW、TF-IDF、Hash Trick、doc2vec、DBoW、DM的更多相关文章
- 文本挖掘预处理之向量化与Hash Trick
在文本挖掘的分词原理中,我们讲到了文本挖掘的预处理的关键一步:"分词",而在做了分词后,如果我们是做文本分类聚类,则后面关键的特征预处理步骤有向量化或向量化的特例Hash Tric ...
- 词向量:part 1 WordNet、SoW、BoW、TF-IDF、Hash Trick、共现矩阵、SVD
1.基于知识的表征 如WordNet(图1-1),包含同义词集(synonym sets)和上位词(hypernyms,is a关系). 存在的问题: 作为资源来说是好的,但是它失去了词间的细微差别, ...
- 文本分类学习(三) 特征权重(TF/IDF)和特征提取
上一篇中,主要说的就是词袋模型.回顾一下,在进行文本分类之前,我们需要把待分类文本先用词袋模型进行文本表示.首先是将训练集中的所有单词经过去停用词之后组合成一个词袋,或者叫做字典,实际上一个维度很大的 ...
- tf idf公式及sklearn中TfidfVectorizer
在文本挖掘预处理之向量化与Hash Trick中我们讲到在文本挖掘的预处理中,向量化之后一般都伴随着TF-IDF的处理,那么什么是TF-IDF,为什么一般我们要加这一步预处理呢?这里就对TF-IDF的 ...
- TF/IDF计算方法
FROM:http://blog.csdn.net/pennyliang/article/details/1231028 我们已经谈过了如何自动下载网页.如何建立索引.如何衡量网页的质量(Page R ...
- 信息检索中的TF/IDF概念与算法的解释
https://blog.csdn.net/class_brick/article/details/79135909 概念 TF-IDF(term frequency–inverse document ...
- Elasticsearch学习之相关度评分TF&IDF
relevance score算法,简单来说,就是计算出,一个索引中的文本,与搜索文本,他们之间的关联匹配程度 Elasticsearch使用的是 term frequency/inverse doc ...
- 55.TF/IDF算法
主要知识点: TF/IDF算法介绍 查看es计算_source的过程及各词条的分数 查看一个document是如何被匹配到的 一.算法介绍 relevance score算法,简单来说 ...
- Elasticsearch由浅入深(十)搜索引擎:相关度评分 TF&IDF算法、doc value正排索引、解密query、fetch phrase原理、Bouncing Results问题、基于scoll技术滚动搜索大量数据
相关度评分 TF&IDF算法 Elasticsearch的相关度评分(relevance score)算法采用的是term frequency/inverse document frequen ...
随机推荐
- main()和代码块
main方法 * main()方法的使用说明 * main方法是程序的主入口(一个主程序 先从main开始进行执行) * * * main方法也可以是一个普通的静态方法 代码块 代码块也是类的成员变量 ...
- 【转】Java类MemoryUsage查看虚拟机的使用情况
原文地址:https://www.cnblogs.com/xubiao/p/5465473.html Java类MemoryUsage,通过MemoryUsage可以查看Java 虚拟机的内存池的内存 ...
- WPF常规表单验证
1:ViewModel 实现验证接口 IDataErrorInfo 2:实现接口的相关验证逻辑,并把错误信息反馈给 Error public string this[string columnName ...
- PAT甲级——A1146 TopologicalOrder【25】
This is a problem given in the Graduate Entrance Exam in 2018: Which of the following is NOT a topol ...
- 【DRP】採用dom4j完毕XML文件导入数据库
版权声明:本文为博主原创文章,未经博主同意不得转载. https://blog.csdn.net/lantingxv_jing/article/details/37762523 xml文件在如 ...
- 暴力穷举zip、rar压缩文件的密码
生成密码的方式类似与时钟,末尾遍历完了第k位所有的字符,就让第k位的前一位到下一位字符,第k位回到第0个字符. 对python还不太熟悉,效率比较低,但是能破解简单的密码. import zipfil ...
- java获取网页源代码并写入本地文件中
import java.io.*; import java.net.*; public class URLDemo { public static void main(String args[]){ ...
- Hooks初探
一.创建自己的HOOkS,并进行封装 二.创建自己的HOOkS,并进行封装
- 【记录】uni-app Chrome跨域解决方案插件 has been blocked by CORS policy: No 'Access-Control-Allow-Origin' header is...
博主最近在用Hbuilder X开发前端网页时, 出现了has been blocked by CORS policy: No 'Access-Control-Allow-Origin' header ...
- 使mysql数据库支持简体中文
永久支持简体中文[root@localhost ~]# vim /etc/my.cnf添加如下四行:[client]default-character-set=utf8 [mysql]default- ...