Collaborative Spatioitemporal Feature Learning for Video Action Recognition 摘要 时空特征提取在视频动作识别中是一个非常重要的部分.现有的神经网络模型要么是分别学习时间和空间特征(C2D),要么是不加控制地联合学习时间和空间特征(C3D). 作者提出了一个新颖的neural操作,它通过在可学习的参数上添加权重共享约束来将时空特征encode collaboratively. 特别地,作者沿着体积视频数据的三个正交视图进行…
Stabilize an Unsupervised Feature Learning for LiDAR-based Place Recognition Peng Yin, Lingyun Xu, Zhe Liu, Lu Li, Hadi Salman, Yuqing He Abstract— Place recognition is one of the major challenges for the LiDAR-based effective localization and mappin…
CVPR2019 1.An Attention Enhanced Graph Convolutional LSTM Network for Skeleton-Based Action Recognition 作者:Chenyang Si, Wentao Chen, Wei Wang, Liang Wang, Tieniu Tan 论文链接:https://arxiv.org/abs/1902.09130 2.Improving the Performance of Unimodal Dynami…
原文: A Discriminative Feature Learning Approach for Deep Face Recognition 用于人脸识别的center loss. 1)同时学习每个类的深度特征的中心点 2)对深度特征和其对应的类中心的距离有一定的惩罚 提出的center loss函数在CNN中可以训练并且很容易优化. 联合softmax loss和center loss,可以同时增加类间分散程度(inter-class dispension)与类内紧凑程度(intra-cl…
论文标题:Online Human Action Recognition Based on Incremental Learning of Weighted Covariance Descriptors 来源/作者机构情况: 卧龙岗大学(世界排名230~),第一次听说这个学校.竟然是在澳大利亚的一个学校.好吧,华人果然全球了 李老师是本硕都是浙大的,李老师个人链接如下: https://www.uow.edu.au/~wanqing/#UOWActionDatasets 解决问题/主要思想贡献:…
URL:http://ydwen.github.io/papers/WenECCV16.pdf这篇论文主要的贡献就是提出了Center Loss的损失函数,利用Softmax Loss和Center Loss联合来监督训练,在扩大类间差异的同时缩写类内差异,提升模型的鲁棒性. 为了直观的说明softmax loss的影响,作者在对LeNet做了简单修改,把最后一个隐藏层输出维度改为2,然后将特征在二维平面可视化,下面两张图分别是MNIDST的train集和test集,可以发现类间差异比较明显,但…
转自:http://blog.csdn.net/kezunhai/article/details/50176209 ================华丽分割线=================这部分来自知乎==================== 链接:http://www.zhihu.com/question/33272629/answer/60279003 有关action recognition in videos, 最近自己也在搞这方面的东西,该领域水很深,不过其实主流就那几招,我就班门…
================华丽分割线=================这部分来自知乎==================== 链接:http://www.zhihu.com/question/33272629/answer/60279003 有关action recognition in videos, 最近自己也在搞这方面的东西,该领域水很深,不过其实主流就那几招,我就班门弄斧说下video里主流的: Deep Learning之前最work的是INRIA组的Improved Dense…
ECCV-2010 Tutorial: Feature Learning for Image Classification Organizers Kai Yu (NEC Laboratories America, kyu@sv.nec-labs.com), Andrew Ng (Stanford University, ang@cs.stanford.edu) Place & Time: Creta Maris Hotel, Crete, Greece, 9:00 – 13:00, Septem…
Two-Stream Convolutional Networks for Action Recognition in Videos & Towards Good Practices for Very Deep Two-Stream ConvNets Note here: it's a learning note on the topic of video representations. This note incorporates two papers about popular two-s…