LSTM 原理

CRF 原理

给定一组输入随机变量条件下另一组输出随机变量的条件概率分布模型。假设输出随机变量构成马尔科夫随机场(概率无向图模型)
在标注问题应用中,简化成线性链条件随机场,对数线性判别模型,学习方法通常是最大似然估计或正则化的最大似然估计。

概率无向图模型:

无向图表示的联合概率分布。

1. 定义:

成对马尔科夫性,局部马尔科夫性,全局马尔科夫性,

上述三个性质定义等价,主要阐述,三个集合,A, B, C,其中集合A和B表示在无向图G中被结点集合C分开的任意结点集合

给定随机变量组Yc的条件下,随机变量组Ya和Yb是条件独立的。

满足三条性质就是的联合概率分布P(Y)就是联合概率无向图模型,如何求这个联合概率的分布,写成若干子联合概率乘积的形式。还好概率无向图模型能因子分解

2. 因子分解

团:任意两个节点均有边连接的结点子集。

最大团:不能再加进任何一个新的结点使其成为更大的团。

因子分解:表示将概率无向图上的联合概率分布表示为其最大团上的随机变量的函数的乘积形式

P(Y)可以写成图中所有最大团C上的函数Ψc(Yc)的乘积形式,Z是规范化因子

势函数要求是严格正的,通常是指数函数

3. 条件随机场的定义:输入序列来预测输出序列的判别式模型

P(Y|X) X是需要标注的观测序列,Y是标记序列。利用训练集通过极大似然估计得到条件概率模型。在测试过程,对于给定的观测序列,模型需要求出条件概率最大的输出序列。

对任意结点v都成立,则P(Y|X)为条件随机场,就是做了一个假设简化了计算,只考虑相连,忽略外围其他边。

中 w≠v表示 w 是除 v 以外的所有节点,w∼v表示 w 是与 v 相连接的所有节点。

线性链条件随机场的定义:

其中当 i 取 1 或 n 时只考虑单边。

4. 线性链条件随机场的数学表达式

线性链条件随机场的参数化形式:特征函数及例子

Z(x) 作为规范化因子,是对 y 的所有可能取值求和。

tk特征函数定义在边上,称为转移特征,依赖当前和前一位置,sl特征函数定义在结点上,称为状态特征,依赖当前位置。两者取值0或1,当特征条件满足为1,不满足为0,条件随机场完全有特征函数tk,sl和对应权重确定。

tk和sl相当于给定的特征模板,给定y可以计算出该标记序列的条件概率。

以序列标注为例:

序列标注 vs 分类

序列标注不是简单的分类,这两类问题存在非常大的区别

lstm处理特征fc到类别数后直接softmax效果没有crf好,因为为每一个待标注的位置都当作一个样本然后进行分类,这样单点的分类,将会有很大的信息损失,因为一个序列的不同位置之间存在联系,应该对这个相关性建模。

条件随机场的简化形式:

这种双重求和就表明了对于同一个特征(k),在各个位置(i)上都有定义。将某一特征模板在所有位置上求和的做法相当于在将局部特征转化为全局特征函数,从而可以写成内积形式。

矩阵形式:

这种形式依托于线性链条件随机场对应的图模型仅在两个相邻节点之间存在边。在状态序列的两侧添加两个新的状态 y0=start 、yn+1=stop。

未完待续

线性链条件随机场的解码问题

解码问题即预测问题,给定条件随机场 P(Y|X) 和观测序列 x ,求最有可能的状态序列 y。与 HMM 类似,使用维特比算法求解。

线性链条件随机场的学习问题

对权重w求导

长短时记忆网络LSTM和条件随机场crf的更多相关文章

  1. (转)零基础入门深度学习(6) - 长短时记忆网络(LSTM)

    无论即将到来的是大数据时代还是人工智能时代,亦或是传统行业使用人工智能在云上处理大数据的时代,作为一个有理想有追求的程序员,不懂深度学习(Deep Learning)这个超热的技术,会不会感觉马上就o ...

  2. 长短时记忆网络(LSTM)

    长短时记忆网络 循环神经网络很难训练的原因导致它的实际应用中很处理长距离的依赖.本文将介绍改进后的循环神经网络:长短时记忆网络(Long Short Term Memory Network, LSTM ...

  3. 零基础入门深度学习(6) - 长短时记忆网络(LSTM)

    代码: def forward(self, x): ''' 根据式1-式6进行前向计算 ''' self.times += 1 # 遗忘门 fg = self.calc_gate(x, self.Wf ...

  4. 机器学习与Tensorflow(5)——循环神经网络、长短时记忆网络

    1.循环神经网络的标准模型 前馈神经网络能够用来建立数据之间的映射关系,但是不能用来分析过去信号的时间依赖关系,而且要求输入样本的长度固定 循环神经网络是一种在前馈神经网络中增加了分亏链接的神经网络, ...

  5. LSTM——长短时记忆网络

    LSTM(Long Short-term Memory),长短时记忆网络是1997年Hochreiter和Schmidhuber为了解决预测位置与相关信息之间的间隔增大或者复杂语言场景中,有用信息间隔 ...

  6. RNN学习笔记(一):长短时记忆网络(LSTM)

    一.前言 在图像处理领域,卷积神经网络(Convolution Nerual Network,CNN)凭借其强大的性能取得了广泛的应用.作为一种前馈网络,CNN中各输入之间是相互独立的,每层神经元的信 ...

  7. 条件随机场(CRF) - 1 - 简介(转载)

    转载自:http://www.68idc.cn/help/jiabenmake/qita/20160530618222.html 首先我们先弄懂什么是"条件随机场",然后再探索其详 ...

  8. 条件随机场(CRF) - 1 - 简介

    声明: 1,本篇为个人对<2012.李航.统计学习方法.pdf>的学习总结,不得用作商用,欢迎转载,但请注明出处(即:本帖地址). 2,由于本人在学习初始时有很多数学知识都已忘记,所以为了 ...

  9. 条件随机场(CRF) - 2 - 定义和形式(转载)

    转载自:http://www.68idc.cn/help/jiabenmake/qita/20160530618218.html 参考书本: <2012.李航.统计学习方法.pdf> 书上 ...

随机推荐

  1. asyncio Queue的使用例子

    import aiohttp import asyncio import async_timeout from urllib.parse import urljoin, urldefrag root_ ...

  2. 设计模式C++学习笔记之七(AbstractFactory抽象工厂模式)

      抽象工厂,提供一个创建一系列相关或相互依赖对象的接口,而无需指定它们具体的类.对于工厂方法来说,抽象工厂可实现一系列产品的生产,抽象工厂更注重产品的组合. 看代码: 7.1.解释 main(),女 ...

  3. python类的内建方法

    研究email源码学到的 class test(): """Class for generating text/* type MIME documents."& ...

  4. struts2框架学习之第二天

    day02 下面是在每个Action之前都会执行的拦截器,这段代码来自与struts-default.xml文件. <interceptor-stack name="defaultSt ...

  5. Nikitosh 和异或 —— 一道 trie 树的题用可持久化 trie 水 然后翻车了...

    题意简介 题目就是叫你找两个不重合的非空区间,使得这两个区间里的数异或后相加的和最大 (看到异或,没错就决定是你了可持久化trie!) 思路 水一波字典树,莫名觉得这题可持久化能过,于是水了一发挂了, ...

  6. oracle 会话 解锁

    背景 这是当年第一次记录博客,当初记录的原因是感觉有些问题很少碰到,碰到有网上寻找一遍,文章很少是正好对症的,折腾半天终于解决了,但是没有记录过程,结果下次碰到又要从来一次.有的问题还极其不好找,or ...

  7. vue el-tree:默认展开第几级节点

    需求描述: Tree 树形结构,默认展开第二级菜单. 查 element 文档: 解决方法: 设置  :default-expanded-keys 的值为 idArr 数组, <el-tree ...

  8. bootstrap的treeview使用方法

    首先引入文件: <link href="./css/bootstrap.css" rel="stylesheet"> <script src= ...

  9. 基于 Confluence 6 数据中心的 SAML 单点登录设置 SSL/TLS

    请确定 SAML 授权是安全和私有的,你需要在你的应用程序中设置SSL/TLS. 请参考in the application. See Running Confluence Over SSL or H ...

  10. 移动端的dl

    https://blog.csdn.net/u013139259/article/details/52143240