原文地址:https://www.jianshu.com/p/2f2d5d5e03f8

一、文本特征

(一)基本文本特征提取

  • 词语数量
    常,负面情绪评论含有的词语数量比正面情绪评论更多。
  • 字符数量
    常,负面情绪评论含有的字符数量比正面情绪评论更多。
  • 平均词汇长度
    平均词汇长度=所有单词长度/单词个数。
  • 停用词数量
    有时,计算停用词的数量可以提供去除停用词后失去的额外信息。
  • 特殊字符数量
    如"#"、"@"等的数量。
  • 数字的数量
    并不常用,但在相似任务中常比较有用。
  • 大写单词的数量
    ......

(二)文本的预处理

小写转换、去除标点符号、停用词去除、常见词去除、稀缺词去除、拼写校对、分词、词干提取、词性还原 ......
词形还原(lemmatization),是把一个任何形式的语言词汇还原为一般形式;而词干提取(stemming)是抽取词的词干或者词根形式,不一定能够表达完整语义。

(三)高级文本处理

  • N-grams
    若太短,则无法捕获重要信息;若太长,则捕获的信息基本是一样的,没有差异性。
  • 词频TF
  • 反转文档频率IDF
  • 词频-反转文档频率TF-IDF
  • 词集模型SoW、词袋模型BoW
  • 评测情感
    例如使用NLTK自带方法。
  • 词向量
  • 文本向量
    ......

二、SoW & BoW

当将文本表示为词相关的向量时,向量的维度值为总词汇数。
词集模型(Set of Words, SoW)中,如果向量维度位置对应的词出现在文本中,则该处值为1,否则为0。
除了考虑词是否出现外,词袋模型(Bag of Words, BoW)还考虑其出现次数,即每个文本向量在其对应词处取值为该词在文本中出现次数,未出现则为0。
但是,用词频来衡量该词的重要性是存在问题的。比如"the",它的词频很高,但其实它没有那么重要。所以可以使用TF-IDF特征来统计修正词频。
修正后的向量依旧存在数据稀疏的问题,大部分值为0,常使用Hash Trick进行降维。

(一) TF-IDF

TF-IDF是一种统计方法,用以评估一字词对于一个文件集或一个语料库中的其中一份文件的重要程度。
字词的重要性随着它在文件中出现的次数成正比增加,但同时会随着它在语料库中出现的频率成反比下降。
TF(term frequency):词在当前文本中的词频;
IDF(inverse document frequency):包含该词的文本在语料库中出现频率的倒数的对数,即:
\[IDF(x)=log{N \over N(x)}\]
其中,\(N\)是语料库中文本的总数,\(N(x)\)是语料库中包含词\(x\)的文本的总数。
常见的IDF平滑公式之一:
\[IDF(x)=log{N+1 \over N(x)+1}+1\]
最终,词\(x\)的TF-IDF值:
\[TF{-}IDF(x)=TF(x)*IDF(x)\]

(二)Hash Trick

哈希函数\(h\)将第\(i\)个特征哈希到位置\(j\),即\(h(i)=j\)。那么,第\(i\)个原始特征的词频数值\(c(i)\)将会累积到哈希后的第\(j\)个特征的词频数值\(c'(j)\)上,即:\[c'(j)=\sum_{i\in J;h(i)=j}c(i)\]
其中\(J\)是原始特征的维度。
但这样做存在一个问题,有可能两个原始特征哈希后位置相同,导致词频累加后特征值突然变大。
为了解决这个问题,出现了hash trick的变种signed hash trick,多了一个哈希函数\({\xi}:N{\rightarrow}{\pm}1\),此时,我们有:
\[c'(j)=\sum_{i\in J;h(i)=j}{\xi}(i)c(i)\]
这样做的好处是,哈希后的特征值仍然是一个无偏的估计,不会导致某些哈希位置的值过大。从实际应用中来说,由于文本特征的高稀疏性,这么做是可行的。
注意hash trick降维后的特征已经不知道其代表的特征和意义,所以其解释性不强。
一般来说,只要词汇表的特征不至于太大,大到内存不够用,肯定是使用一般意义的向量化比较好。因为向量化的方法解释性很强,我们知道每一维特征对应哪一个词,进而我们还可以使用TF-IDF对各个词特征的权重进行修改,进一步完善特征的表示。
而Hash Trick一般使用在大规模机器学习上。此时我们的词汇量极大,使用向量化方法内存可能不够用,而使用Hash Trick降维速度很快,降维后的特征仍然可以帮我们完成后续的分类和聚类工作。当然由于分布式计算框架的存在,其实一般我们不会出现内存不够的情况。因此,实际工作中常常使用的都是特征向量化。

三、doc2vec

(一)DBoW

Distributed Bag of Words(DBoW)在给定文档向量的情况下预测文档中一组随机单词的概率。和Skip-Gram很像。
DBoW模型的输入是文档向量,预测的是该文档中随机抽样的单词。在SGD的每一次迭代中采样一个文本窗口,再从该文本窗口中随机采样一个词,从而形成一个给定段落向量进行词预测的多分类的任务。

(二)DM

Distributed Memory(DM)在给定文档向量和上下文的情况下预测单词的概率。和CBoW很像。
DM模型在训练时,首先将每个文档id和语料库中的所有词初始化为一个\(k\)维的向量,然后将文档向量和上下文的向量输入模型,隐藏层将这些向量进行累加或取均值或拼接得到中间向量,作为输出层softmax的输入。

(三)小结

不同的文档具有不同的文档向量,但是不同文档中的相同词具有相同的词向量。在一个文档的训练过程中,文档id保持不变,共享着同一个文档向量,相当于在预测单词的概率时,都利用了整个文档的语义。
其主要优点是文档向量的获取过程中,可以对没有标记的数据集进行训练。

文本表征:SoW、BoW、TF-IDF、Hash Trick、doc2vec、DBoW、DM的更多相关文章

  1. 文本挖掘预处理之向量化与Hash Trick

    在文本挖掘的分词原理中,我们讲到了文本挖掘的预处理的关键一步:"分词",而在做了分词后,如果我们是做文本分类聚类,则后面关键的特征预处理步骤有向量化或向量化的特例Hash Tric ...

  2. 词向量:part 1 WordNet、SoW、BoW、TF-IDF、Hash Trick、共现矩阵、SVD

    1.基于知识的表征 如WordNet(图1-1),包含同义词集(synonym sets)和上位词(hypernyms,is a关系). 存在的问题: 作为资源来说是好的,但是它失去了词间的细微差别, ...

  3. 文本分类学习(三) 特征权重(TF/IDF)和特征提取

    上一篇中,主要说的就是词袋模型.回顾一下,在进行文本分类之前,我们需要把待分类文本先用词袋模型进行文本表示.首先是将训练集中的所有单词经过去停用词之后组合成一个词袋,或者叫做字典,实际上一个维度很大的 ...

  4. tf idf公式及sklearn中TfidfVectorizer

    在文本挖掘预处理之向量化与Hash Trick中我们讲到在文本挖掘的预处理中,向量化之后一般都伴随着TF-IDF的处理,那么什么是TF-IDF,为什么一般我们要加这一步预处理呢?这里就对TF-IDF的 ...

  5. TF/IDF计算方法

    FROM:http://blog.csdn.net/pennyliang/article/details/1231028 我们已经谈过了如何自动下载网页.如何建立索引.如何衡量网页的质量(Page R ...

  6. 信息检索中的TF/IDF概念与算法的解释

    https://blog.csdn.net/class_brick/article/details/79135909 概念 TF-IDF(term frequency–inverse document ...

  7. Elasticsearch学习之相关度评分TF&IDF

    relevance score算法,简单来说,就是计算出,一个索引中的文本,与搜索文本,他们之间的关联匹配程度 Elasticsearch使用的是 term frequency/inverse doc ...

  8. 55.TF/IDF算法

    主要知识点: TF/IDF算法介绍 查看es计算_source的过程及各词条的分数 查看一个document是如何被匹配到的         一.算法介绍 relevance score算法,简单来说 ...

  9. Elasticsearch由浅入深(十)搜索引擎:相关度评分 TF&IDF算法、doc value正排索引、解密query、fetch phrase原理、Bouncing Results问题、基于scoll技术滚动搜索大量数据

    相关度评分 TF&IDF算法 Elasticsearch的相关度评分(relevance score)算法采用的是term frequency/inverse document frequen ...

随机推荐

  1. display和visibility

    display: none; visibility: hidden; 相同点:两者都是隐藏元素不同点:display不保留位置,visibility保留位置

  2. USB仪器控制教程

    概观 本教程是为出发点使用NI-VISA与USB设备进行通信.它不打算作为一个起点,学习USB构架或USB通讯中使用的各种协议.阅读本教程后,您应该能够安装一个USB设备,并使用NI-VISA与该设备 ...

  3. java并发编程笔记(二)——并发工具

    java并发编程笔记(二)--并发工具 工具: Postman:http请求模拟工具 Apache Bench(AB):Apache附带的工具,测试网站性能 JMeter:Apache组织开发的压力测 ...

  4. Mamen所需要的jar包怎么生成

    Mamen所需要的jar包怎么生成 使用 mamen 难免碰到,不知道的 jar 包,不知道怎么在 pom 文件中写,分享一个网址,可以把你想要的 jar 包生成 pom 配置文件,个人感觉非常好用. ...

  5. grep 后加单引号、双引号和不加引号的区别

    请尊重版权,原文地址:https://blog.csdn.net/cupidove/article/details/8783968 单引号: 可以说是所见即所得:即将单引号内的内容原样输出,或者描述为 ...

  6. Spring import配置文件使用占位符

    import使用占位符 连接池切换导入配置的代码: <import resource="classpath:META-INF/spring/spring-${db.connection ...

  7. linux下samba共享服务器搭建详解

    这两天业务需求搭了一台服务器.要求samba共享文件. 葡萄美酒月光杯的前戏就省了,我们直接上干货. 1.yum方式安装samba yum  -y  install samba 2.将/etc/sam ...

  8. Input标签文件上传,使用详解

    1.html添加标签按钮 <button ion-button (click)="selectVideo()">添加</button> <input ...

  9. 将Eclipse项目转换成AndroidStudio项目过程中遇到的问题以及解决方法

    将Eclipse项目转换成AndroidStudio项目也不是第一次了,昨天转的时候遇到几个问题: 首先将项目导入androidstudio,导完后报错: 问题一: Error:java.util.c ...

  10. P4151 [WC2011]最大XOR和路径 线性基

    题目传送门 题意:给出一幅无向图,求1到n的所有路径中最大异或和,一条边可以被重复经过. 思路: 参考了大佬的博客 #pragma GCC optimize (2) #pragma G++ optim ...