一.论文整体思路: 作者提出了一种基于前缀树的数据结构,NegNodeset,其实是对之前前缀树的一种改进,主要区别在于采用了位图编码,通过这种数据结构产生的算法称为negFIN. negFIN算法高效有三个原因 二.问题定义 I= {i1,i2,…, init} 表示事务数据库所有项的集合,T表示每个事务,T⊆I ,DB = {T1,T2,…, Tnt} 是所有事务的集合 P称为k-项集,如果P⊆T ,那么事务T包含了项集P,support(P)是DB中包含P的百分比,如果support(P)…
Content Based Hierarchical Fast Coding Unit Decision Algorithm For HEVC <HEVC标准介绍.HEVC帧间预测论文笔记>系列博客,目录见:http://www.cnblogs.com/DwyaneTalk/p/5711333.html 2011 International Conference on Multimedia and Signal Processing 根据先前帧的CU划分情况进行当前帧进行帧级的CU快速深度决策…
论文源址:https://arxiv.org/abs/1504.08083 参考博客:https://blog.csdn.net/shenxiaolu1984/article/details/51036677 摘要 该文提出了一个快速的基于区域框的卷积网络用于目标检测任务.Fast RCNN使用深度卷积网络对proposals进行分类.相比先前的工作,Fast R-CNN在提高准确率的基础上提高了训练和测试的速度.在VGG19的网络中,Fast R-CNN训练时间比R-CNN快9倍,而测试要快2…
MobileNets: Efficient Convolutional Neural Networks for Mobile Vision Applications 论文链接:https://arxiv.org/pdf/1704.04861.pdf 摘要和Prior Work就略了,懒:)   Summary: 总的来说,MobileNet相对于标准卷积过程有以下几点不同: 1) 将标准的卷积操作分为两步:depthwise convolution和pointwise convolution.即…
论文地址:TinyLSTMs:助听器的高效神经语音增强 音频地址:https://github.com/Bose/efficient-neural-speech-enhancement 引用格式:Fedorov I,Stamenovic M,Jensen C,et al. TinyLSTMs:Efficient neural speech enhancement for hearing aids[J]. arXiv preprint arXiv:2005.11138,2020. 摘要 现代语音增…
一. 什么是快速幂: 快速幂顾名思义,就是快速算某个数的多少次幂.其时间复杂度为 O(log₂N), 与朴素的O(N)相比效率有了极大的提高.一般一个矩阵的n次方,我们会通过连乘n-1次来得到它的n次幂.但做下简单的改进就能减少连乘的次数,方法如下:把n个矩阵进行两两分组,比如:A*A*A*A*A*A  =>  (A*A)*(A*A)*(A*A).这样变的好处是,你只需要计算一次A*A,然后将结果(A*A)连乘自己两次就能得到A^6,即(A*A)^3=A^6.算一下发现这次一共乘了3次,少于原来…
文章提出了一种分布式聚类的算法,这是第一个有理论保障的考虑离群点的分布式聚类算法(文章里自己说的).与之前的算法对比有以下四个优点: 1.耗时短O(max{k,logn}*n), 2.传递信息规模小:对抗分区O(klogn+t),随机分区O(klogn+t/s) 3.算法有良好的近似保证, 4.能够有效的检测出离群点. 其中,k聚类中心个数,n数据集大小,t离群点个数,s站点数(分区个数) 符号说明: 算法总体描述: 文中提出的算法分为两个阶段,第一阶段的算法是在[1]中改进,将[1]中纯净的数…
来源:IEEE Sensors Journal Year: 2016, Volume: 16, Issue: 20 Pages: 7545 - 7557, DOI: 10.1109/JSEN.2016.2601327     目的: 减少能量损耗,延长网络生命周期 了解基本思路     圆:传感器节点  框:Mobile Sink   (大致原则是:距离越小,能耗越小.后面给出能耗的计算公式) A节点肯定直接与Ms相连: B节点到MS的距离大于BA的距离,所有选择A节点作为自己转发数据的下一个节…
一.论文目标:将差分隐私和频繁项集挖掘结合,主要针对大规模数据. 二.论文的整体思路: 1)预处理阶段: 对于大的数据集,进行采样得到采样数据集并计算频繁项集,估计样本数据集最大长度限制,然后再缩小源数据集:(根据最小的support值,频繁项集之外的项集从源数据集移除)     我们利用字符串匹配去剪切数据集的事务: 2)挖掘阶段: 利用压缩数据集,先构造FP-Tree,隐私预算均匀分配,对真实的结果添加噪声: 3)扰动阶段: 对于候选频繁项集添加拉普拉斯噪声并且输出 通过限制每个事务的长度减…
本文是个人对spmf中example1. mining frequent itemsets by  using the apriori algorithm的学习. What is Apriori? Apriori is an algorithm for discovering frequent itemsets in transaction databases. It was proposed by Agrawal & Srikant input file format: 1 3 42 3 51…