论文题目《Hyperspectral Image Classification With Deep Feature Fusion Network》

论文作者:Weiwei Song, Shutao Li, Leyuan Fang,Ting Lu

论文发表年份:2018

网络简称:DFFN

发表期刊:IEEE Transactions on Geoscience and Remote Sensing

 一、本文提出的挑战

1.由于光谱混合和光谱特征空间变异性的存在,HSIs通常具有非常复杂的空间-光谱特征。

2.传统的CNN是由多个层次组成的,不同层次之间的强互补性和相关性在以往的研究中都没有得到充分利用。

 二、提出的对应解决方案

1.引入剩余学习来优化几个卷积层作为身份映射,我们构建了一个非常深入的网络,在不降低性能的情况下提取更多HSIs的鉴别特征(也就是使用残差连接)。

2.采用融合机制,充分利用网络的多层特性

 三、DFFN模型介绍

1.PCA降维:首先,对高光谱数据进行主成分分析(PCA)算法,提取出信息量最大的成分,从而降低计算成本。

(PCA解释:主成分分析(PCA算法)_NSSWTT的博客-CSDN博客_pca主成分分析公式

2.图像输入:与输入整个图像的自然图像分类不同,基于CNN的HSI分类使用以标记像素为中心的图像补丁作为输入样本。

3.网络结构:根据卷积滤波器的数量分成三个阶段。具体来说,在第1阶段、第2阶段和第3阶段,分别有16、32和64个卷积滤波器。在每次卷积之后和激活之前,采用批处理归一化来加速网络的收敛。

4.特征融合:即利用不同层次之间的强互补和相关性信息进行HSI分类。考虑到不同层的特征图数量不同,在进行特征融合前,使用维数匹配函数(即线性投影)来保证它们具有相同的光谱维数。假设FL、FM、和FH分别为stage1、stage2和stage3的输出,它们分别有16、32和64个feature map。然后,使用64个大小为1 ×1的内核来对它们进行卷积。通过这样的卷积运算,FL、FM和FH的特征图数量都变成了64个。最后,通过元素化求和的方法实现了特征融合。

5.分类:融合后的特征经过多层完全连通的处理后转化为输出特征向量。然后,将特征向量输入到一个softmax层,计算每个类的条件概率。

四、实验

所用数据集:

1.Indian Pines:该场景有220个数据通道,横跨0.2 ~ 2.4 μm的光谱范围,每个波段的大小为145×145。该图像的空间分辨率为20 m/pixel,包含16个ground-truth类,其中大部分是不同类型的农作物。实验前去除20 吸水波段(不能被水反射)。false color image 和 ground truth data:

2.University of Pavia:该图像的尺寸为610×340×115,空间分辨率为1.3 m/pixel,光谱覆盖范围为0.43 to 0.86 μm. 选取九个类进行实验,实验之前去除了12个噪声很大的波段。false color image 和 ground truth data:

3.AVIRIS Salinas:该图像有224个大小为512 × 217的光谱波段,空间分辨率为3.7 m/pixel,包含16个ground-truth类,实验前去除20 吸水波段。false color image 和 ground truth data:

五、结果展示 

1.定量指标:

总体精度(OA):通过正确分类测试样本的数量与测试样本总数之间的比率来计算的。

平均精度(AA):所有类精度的平均值。

Kappa系数:通过测量精度加权计算的,它代表了一致性程度的稳健度量。

2.在Indian Pines数据集上各方法分类结果展示(使用10%训练样本):

3.在University of Pavia数据集上各方法分类结果定量展示(使用2%训练样本):

4.在Salinas数据集上各方法分类结果定量展示(使用0.5%训练样本):

其余实验结果不再展示,论文后续对于主成分个数和图像补丁大小、网络深度三个参数数据做了实验。最后对不同的训练样本数量、不同特征融合策略做了实验比较。

Note:由于训练样本数量少,即使是本文提出的DFFN也不能增加到很深的网络。多层融合可以在一定程度上提高分类结果,提出的融合策略DFFN确实优于其他方法。然而,相反地,融合太多的层可能带来冗余信息,会大大降低性能。

六、总结

  本文提出了一种新的DL-based 分类方法DFFN。与之前的网络相比,DFFN主要采用残差连接来增加模型的深度,可以提取更深层的特征。同时使用特征融合机制充分利用多层特征。

《Hyperspectral Image Classification With Deep Feature Fusion Network》论文笔记的更多相关文章

  1. 《Vision Permutator: A Permutable MLP-Like ArchItecture For Visual Recognition》论文笔记

    论文题目:<Vision Permutator: A Permutable MLP-Like ArchItecture For Visual Recognition> 论文作者:Qibin ...

  2. [place recognition]NetVLAD: CNN architecture for weakly supervised place recognition 论文翻译及解析(转)

    https://blog.csdn.net/qq_32417287/article/details/80102466 abstract introduction method overview Dee ...

  3. 论文笔记系列-Auto-DeepLab:Hierarchical Neural Architecture Search for Semantic Image Segmentation

    Pytorch实现代码:https://github.com/MenghaoGuo/AutoDeeplab 创新点 cell-level and network-level search 以往的NAS ...

  4. 论文笔记——Rethinking the Inception Architecture for Computer Vision

    1. 论文思想 factorized convolutions and aggressive regularization. 本文给出了一些网络设计的技巧. 2. 结果 用5G的计算量和25M的参数. ...

  5. 论文笔记:Fast Neural Architecture Search of Compact Semantic Segmentation Models via Auxiliary Cells

    Fast Neural Architecture Search of Compact Semantic Segmentation Models via Auxiliary Cells 2019-04- ...

  6. 论文笔记:ProxylessNAS: Direct Neural Architecture Search on Target Task and Hardware

    ProxylessNAS: Direct Neural Architecture Search on Target Task and Hardware 2019-03-19 16:13:18 Pape ...

  7. 论文笔记:DARTS: Differentiable Architecture Search

    DARTS: Differentiable Architecture Search 2019-03-19 10:04:26accepted by ICLR 2019 Paper:https://arx ...

  8. 论文笔记:Progressive Neural Architecture Search

    Progressive Neural Architecture Search 2019-03-18 20:28:13 Paper:http://openaccess.thecvf.com/conten ...

  9. 论文笔记:Auto-DeepLab: Hierarchical Neural Architecture Search for Semantic Image Segmentation

    Auto-DeepLab: Hierarchical Neural Architecture Search for Semantic Image Segmentation2019-03-18 14:4 ...

  10. 论文笔记系列-DARTS: Differentiable Architecture Search

    Summary 我的理解就是原本节点和节点之间操作是离散的,因为就是从若干个操作中选择某一个,而作者试图使用softmax和relaxation(松弛化)将操作连续化,所以模型结构搜索的任务就转变成了 ...

随机推荐

  1. 从零开始完整开发基于websocket的在线对弈游戏【五子棋】,只用几十行代码完成全部逻辑。

    五子棋是规则简单明了的策略型游戏,先形成五子连线者获胜.本课程习作采用两人在线对弈的方式进行比赛,拿着手机在上下班路上玩特别合适. 整个过程在众触低代码应用平台进行,使用表达式描述游戏逻辑(高度简化版 ...

  2. 【新人福利】使用CSDN 官方插件,赠永久免站内广告特权 >>电脑端访问:https://t.csdnimg.cn/PVqS

    [新人福利]使用CSDN 官方插件,赠永久免站内广告特权 >>电脑端访问:CSDN开发助手 [新人福利]使用CSDN 官方插件,赠永久免站内广告特权 >>电脑端访问:https ...

  3. P2512 【一本通提高篇贪心】「一本通 1.1 练习 6」[HAOI2008]糖果传递

    [HAOI2008]糖果传递 题目描述 有 n n n 个小朋友坐成一圈,每人有 a i a_i ai​ 个糖果.每人只能给左右两人传递糖果.每人每次传递一个糖果代价为 1 1 1. 输入格式 小朋友 ...

  4. Win10系统下使用Django2.0.4+Celery4.4.2+Redis来实现异步任务队列以及定时(周期)任务(2020年最新攻略)

    原文转载自「刘悦的技术博客」https://v3u.cn/a_id_153 首先明确一点,celery4.1+的官方文档已经详细说明,该版本之后不需要引入依赖 django-celery 这个库了,直 ...

  5. 【Java面试】生产环境服务器变慢,如何诊断处理?

    "生产环境服务器变慢?如何诊断处理" 这是最近一些工作5年以上的粉丝反馈给我的问题,他们去一线大厂面试,都被问到了这一类的问题. 今天给大家分享一下,面试过程中遇到这个问题,我们应 ...

  6. ARC129E Yet Another Minimization 题解 【网络流笔记】

    超神的建模,极其有借鉴意义/cy 注:该建模对应于最小割建模 对于 \(n\) 个数,每个数有 \(m\) 种取值的技巧 \(\forall i=1,2,\dots,n\),令 \(S=V_{i,0} ...

  7. 2022了你还不会『低代码』?数据科学也能玩转Low-Code啦! ⛵

    作者:韩信子@ShowMeAI 数据分析实战系列:http://www.showmeai.tech/tutorials/40 机器学习实战系列:http://www.showmeai.tech/tut ...

  8. 线程本地存储 ThreadLocal

    线程本地存储 · 语雀 (yuque.com) 线程本地存储提供了线程内存储变量的能力,这些变量是线程私有的. 线程本地存储一般用在跨类.跨方法的传递一些值. 线程本地存储也是解决特定场景下线程安全问 ...

  9. 不止跑路,拯救误操作rm -rf /*的小伙儿

    摘要:误执行了 rm -rf /* 之后,除了跑路还能怎么办? 本文分享自华为云社区<拯救被 rm -rf 伤到的小伙>,作者:Gauss 松鼠会. 灵魂画师再次上线   在开饭前我们先了 ...

  10. Http 前端向后端传递List参数

    场景 在日常项目开发中,前端向后端传参时,可能会遇到需要传 List 类型的参数.比如批量删除时将多个 ID 以集合的形式传给后台. 前端传参 此时前端传参有两种方式: 1.多个同名 key key ...