seq2seq keras实现】的更多相关文章

seq2seq 是一个 Encoder–Decoder 结构的网络,它的输入是一个序列,输出也是一个序列, Encoder 中将一个可变长度的信号序列变为固定长度的向量表达,Decoder 将这个固定长度的向量变成可变长度的目标的信号序列. 这个结构最重要的地方在于输入序列和输出序列的长度是可变的,可以用于翻译,聊天机器人,句法分析,文本摘要等. encoder-decoder结构:https://arxiv.org/pdf/1406.1078.pdf seq2seq结构:https://arx…
之前在看<Semi-supervised Sequence Learning>这篇文章的时候对seq2seq半监督的方式做文本分类的方式产生了一定兴趣,于是开始简单研究了seq2seq.先来简单说一下这篇paper的内容: 创立的新形式Sequence AutoEncoder LSTM(SA-LSTM),Pre-trained RNNs are more stable, generalize better, and achieve state-of-the-art results on var…
这里只是简单的一个例子 输入序列 目标序列 [13, 28, 18, 7, 9, 5] [18, 28, 13] [29, 44, 38, 15, 26, 22] [38, 44, 29] [27, 40, 31, 29, 32, 1] [31, 40, 27] 1.输入序列与目标序列向量化 设置GPU进行计算 import tensorflow as tf tf.debugging.set_log_device_placement(True) 导入需要的函数和包 from numpy impo…
ChatGirl 一个基于 TensorFlow Seq2Seq 模型的聊天机器人[中文文档] 简介 简单地说就是该有的都有了,但是总体跑起来效果还不好. 还在开发中,它工作的效果还不好.但是你可以直接训练,并且运行. 包含预处理过的 twitter 英文数据集,训练,运行,工具代码,可以运行但是效果有待提高. 数据集 Twitter 数据集: https://github.com/suriyadeepan/datasets 训练 你需要新建一个 model 文件夹来保存训练完的模型 运行这个文…
Keras中文文档 github Keras example 官方博客 A ten-minute introduction to sequence-to-sequence learning in Keras 其他链接: Keras之文本分类实现 玩转Keras之seq2seq自动生成标题 Keras Attention Mechanism Keras Maxout实现 Maxout网络学习 github keras maxout keras ctc 深度学习--训练CNN+CTC网络的时候报错:…
http://spaces.ac.cn/archives/3924/ 关于字标注法 上一篇文章谈到了分词的字标注法.要注意字标注法是很有潜力的,要不然它也不会在公开测试中取得最优的成绩了.在我看来,字标注法有效有两个主要的原因,第一个原因是它将分词问题变成了一个序列标注问题,而且这个标注是对齐的,也就是输入的字跟输出的标签是一一对应的,这在序列标注中是一个比较成熟的问题:第二个原因是这个标注法实际上已经是一个总结语义规律的过程,以4tag标注为为例,我们知道,“李”字是常用的姓氏,一半作为多字词…
http://spaces.ac.cn/archives/3942/ 暑假期间做了一下百度和西安交大联合举办的核心实体识别竞赛,最终的结果还不错,遂记录一下.模型的效果不是最好的,但是胜在“端到端”,迁移性强,估计对大家会有一定的参考价值. 比赛的主题是“核心实体识别”,其实有两个任务:核心识别 + 实体识别.这两个任务虽然有关联,但在传统自然语言处理程序中,一般是将它们分开处理的,而这次需要将两个任务联合在一起.如果只看“核心识别”,那就是传统的关键词抽取任务了,不同的是,传统的纯粹基于统计的…
目录 时间序列深度学习:seq2seq 模型预测太阳黑子 学习路线 商业中的时间序列深度学习 商业中应用时间序列深度学习 深度学习时间序列预测:使用 keras 预测太阳黑子 递归神经网络 设置.预处理与探索 所用的包 数据 探索性数据分析 回测:时间序列交叉验证 LSTM 模型 数据准备 用 recipe 做数据预处理 调整数据形状 构建 LSTM 模型 在所有分割上回测模型 时间序列深度学习:seq2seq 模型预测太阳黑子 本文翻译自<Time Series Deep Learning,…
1. 动机 我近期在研究一个 NLP 项目,根据项目的要求,需要能够通过设计算法和模型处理单词的音节 (Syllables),并对那些没有在词典中出现的单词找到其在词典中对应的押韵词(注:这类单词类似一些少见的专有名词或者通过组合产生的新词,比如 Brexit,是用 Britain 和 exit 组合在一起创造出来表示英国脱欧的新词).在这两个任务中,能够对单词的发音进行预测是非常有必要的.本文详细记录我解决该问题的过程,希望能够对初学者和具有一定经验的朋友有所帮助.本文代码实现均基于 Pyth…
本文主要参考两篇文献: 1.<深度学习theano/tensorflow多显卡多人使用问题集> 2.基于双向LSTM和迁移学习的seq2seq核心实体识别 运行机器学习算法时,很多人一开始都会有意无意将数据集默认直接装进显卡显存中,如果处理大型数据集(例如图片尺寸很大)或是网络很深且隐藏层很宽,也可能造成显存不足. 这个情况随着工作的深入会经常碰到,解决方法其实很多人知道,就是分块装入.以keras为例,默认情况下用fit方法载数据,就是全部载入.换用fit_generator方法就会以自己手…