原文链接 小样本学习与智能前沿 . 在这个公众号后台回复"200706",即可获得课件电子资源. @ 目录 Abstract I. INTRODUCTION Framework. Our Method. II. RELATED WORKS A. Supervised Re-ID B. Semi-supervised Re-ID C. Unsupervised re-ID D. Progressive Learning III. THE PROPOSED METHOD A. Overal…
经典以及最新的半监督方法 (SSL) 代码总结 最近因为做实验需要,收集了一些半监督方法的代码,列出了一个清单: 1. NIPS 2015 Semi-Supervised Learning with Ladder Networks https://github.com/CuriousAI/ladder 2. NIPS 2014 Semi-supervised-Learning-with-Deep-Generative-Models https://github.com/wangxiao57915…
歧义问题方面,笔者一直比较关注利用词向量解决歧义问题: 也许你寄希望于一个词向量能捕获所有的语义信息(例如run即是动车也是名词),但是什么样的词向量都不能很好地进行凸显. 这篇论文有一些利用词向量的办法:Improving Word Representations Via Global Context And Multiple Word Prototypes(Huang et al. 2012) 解决思路:对词窗口进行聚类,并对每个单词词保留聚类标签,例如bank1, bank2等 来源于笔者…
摘要: 本文解决了半监督视频目标分割的问题.给定第一帧的mask,将目标从视频背景中分离出来.本文提出OSVOS,基于FCN框架的,可以连续依次地将在IMAGENET上学到的信息转移到通用语义信息,实现前景分割的目的,之后学习单个标注物体的外形.尽管所有的帧序列都是独立处理的,但结果却是时序相关的,连续稳定的.我们在两个标注的视频数据集上进行了测试,结果显示OSVOS是非常快的,同时较当前流行的最好算法强一大截. 介绍: CNN网络划时代的改变了计算机视觉领域.极大的提升了图像分类,目标检测的准…
正则化 虚拟对抗训练是一种正则化方法,正则化在深度学习中是防止过拟合的一种方法.通常训练样本是有限的,而对于深度学习来说,搭设的深度网络是可以最大限度地拟合训练样本的分布的,从而导致模型与训练样本分布过分接近,还把训练样本中的一些噪声也拟合进去了,甚至于最极端的,训练出来的模型只能判断训练样本,而测试样本变成了随机判断.所以为了让模型泛化地更好,正则化是很有必要的. 最常见的正则化是直接对模型的参数的大小进行限制,比如将参数(整合为向量$\theta$)的$L_2$范数: $\displayst…
根据模型的训练策略划分: 直推式学习(Transductive Semi-supervised Learning) 无标记数据就是最终要用来测试的数据,学习的目的就是在这些数据上取得最佳泛化能力. 归纳式学习(Inductive Semi-supervised Learning) 认为待识别样本不能是训练中所用的无标签数据,不能参与到训练过程. ​ 这两者的区别在于:预测样本是不是在训练的时候已经见(用)过.通常直推式比归纳式的效果要好,因为归纳式还需要从训练泛化到测试. 根据无标签数据的使用方…
小样本利器2.文本对抗+半监督 FGSM & VAT & FGM代码实现 上一章我们聊了聊通过一致性正则的半监督方案,使用大量的未标注样本来提升小样本模型的泛化能力.这一章我们结合FGSM,FGM,VAT看下如何使用对抗训练,以及对抗训练结合半监督来提升模型的鲁棒性.本章我们会混着CV和NLP一起来说,VAT的两篇是CV领域的论文,而FGM是CV迁移到NLP的实现方案,一作都是同一位作者大大.FGM的tensorflow实现详见Github-SimpleClassification 我们会…
Deep Meta Learning for Real-Time Visual Tracking based on Target-Specific Feature Space  2018-01-04  15:58:15  写在前面:为什么要看这个paper?这篇 paper 貌似是第一个将 meta-learning 应用到 visual tracking 领域的,取得了速度和精度较好的平衡. Introduction: 我们知道,tracking 中比较重要的就是 target object…
1.前言 对大量需要分类的文本数据进行标记是一项繁琐.耗时的任务,而真实世界中,如互联网上存在大量的未标注的数据,获取这些是容易和廉价的.在下面的内容中,我们介绍使用半监督学习和EM算法,充分结合大量未标记的样本,以期获得文本分类更高的准确率.本文使用的是多项式朴素贝叶斯作为分类器,通过EM算法进行训练,使用有标记数据以及未标记的数据.研究了多类分类准确率与训练集中未标记数据的比例之间的关系.并探索方法来降低EM过程的计算代价来加速训练.结果显示,半监督EM-NB分类器可以在只给2%标记数据情况…
机器学习工程师最熟悉的设置之一是访问大量数据,但需要适度的资源来注释它.处于困境的每个人最终都会经历逻辑步骤,当他们拥有有限的监督数据时会问自己该做什么,但很多未标记的数据,以及文献似乎都有一个现成的答案:半监督学习. 这通常是出现问题的时候. 从历史上看,半监督学习一直是每个工程师作为一种通过仪式进行的兔子洞之一,只是为了发现对普通旧数据标签的新发现.细节对于每个问题都是独一无二的,但从广义上讲,它们通常可以描述如下: 在低数据制度中,半监督培训确实倾向于提高绩效.但在实际环境中,你经常会从“…