目录 精彩叙述 细节 发表在2017年DCC. 这篇文章立意很简单,方法也很简单,但是做得早.效果好.引用量也不错(40+). 指标:在HEVC的intra.LDP.LDB和RA模式下,BDBR平均可以下降5%.6.4%.5.3%和5.5%. 由于是解码端(decoder-end)的网络,因此可以进一步解决inloop-filter没能解决的块效应和振铃效应等压缩伪影. 以下摘一些精彩的叙述,同时重点看清楚实施细节. 精彩叙述 提升压缩质量是视频编码的永恒主题.然而,无论我们如何修改编码器,视频…
[论文标题]Deep Learning based Recommender System: A Survey and New Perspectives ( ACM Computing Surveys · July 2017) [论文作者] SHUAI ZHANG, University of New South WalesLINA YAO, University of New South WalesAIXIN SUN, Nanyang Technological UniversityYI TAY…
Predicting effects of noncoding variants with deep learning–based sequence model PDF Interpreting noncoding variants- 非常好的学习资料 这篇文章的第一个亮点就是直接从序列开始分析,第二就是使用深度学习获得了很好的预测效果. This is, to our knowledge, the first approach for prioritization of functional…
论文地址:面向基于深度学习的语音增强模型压缩 论文代码:没开源,鼓励大家去向作者要呀,作者是中国人,在语音增强领域 深耕多年 引用格式:Tan K, Wang D L. Towards model compression for deep learning based speech enhancem…
(聊两句,突然记起来以前一个学长说的看论文要能够把论文的亮点挖掘出来,合理的进行概括23333) 传统的推荐系统方法获取的user-item关系并不能获取其中非线性以及非平凡的信息,获取非线性以及非平凡的信息恰恰是深度学习所具备的特点.论文对基于深度的学习的推荐系统方法进行了对比以及分类.文章的主要贡献有以下三点: > 对基于深度学习技术的推荐模型进行系统评价,并提出一种分类和组织当前工作的分类方案. > 提供现有技术的概述和总结 > 我们讨论挑战和开放性问题,并确定本研究中的新趋势和未…
Motivation: The lack of transparency of the deep  learning models creates key barriers to establishing trusts to the model or effectively troubleshooting classification errors Common methods on non-security applications: forward propagation / back pr…
Deep Learning 方向的部分 Paper ,自用.一 RNN 1 Recurrent neural network based language model RNN用在语言模型上的开山之作 2 Statistical Language Models Based on Neural Networks Mikolov的博士论文,主要将他在RNN用在语言模型上的工作进行串联 3 Extensions of Recurrent Neural Network Language Model 开山之…
目录 abstract 1. introduction 1.1 个性衡量方法 1.2 应用前景 1.3 伦理道德 2. Related works 3. Baseline methods 3.1 文本 3.2 音频 3.3 图像 3.4 多模态 4. Detailed overview 4.1 文本 4.1.1 LIWC/MRC 4.1.2 Receptiviti API 4.1.3 社交网络文本研究 4.1.4 深度神经网络应用 4.1.5 SenticNet 5 4.1.6 weighted…
1. 在深度学习中,当数据量不够大时候,常常采用下面4中方法:  (1)人工增加训练集的大小. 通过平移, 翻转, 加噪声等方法从已有数据中创造出一批"新"的数据.也就是Data Augmentation (2)Regularization. 数据量比较小会导致模型过拟合, 使得训练误差很小而测试误差特别大. 通过在Loss Function 后面加上正则项可以抑制过拟合的产生. 缺点是引入了一个需要手动调整的hyper-parameter. 详见https://www.wikiwan…
前言 理论知识:UFLDL教程.Deep learning:二十六(Sparse coding简单理解).Deep learning:二十七(Sparse coding中关于矩阵的范数求导).Deep learning:二十九(Sparse coding练习) 实验环境:win7, matlab2015b,16G内存,2T机械硬盘 本节实验比较不好理解也不好做,我看很多人最后也没得出好的结果,所以得花时间仔细理解才行. 实验内容:Exercise:Sparse Coding.从10张512*51…