目标

在本章中,

  • 我们将看到如何将一个图像中的特征与其他图像进行匹配。
  • 我们将在OpenCV中使用Brute-Force匹配器和FLANN匹配器

Brute-Force匹配器的基础

蛮力匹配器很简单。它使用第一组中一个特征的描述符,并使用一些距离计算将其与第二组中的所有其他特征匹配。并返回最接近的一个。

对于BF匹配器,首先我们必须使用cv.BFMatcher()创建BFMatcher对象。

它需要两个可选参数。第一个是normType,它指定要使用的距离测量。默认情况下为cv.NORM_L2。对于SIFT,SURF等(也有cv.NORM_L1)很有用。

对于基于二进制字符串的描述符,例如ORB,BRIEF,BRISK等,应使用cv.NORM_HAMMING,该函数使用汉明距离作为度量。如果ORB使用WTA_K == 34,则应使用cv.NORM_HAMMING2

第二个参数是布尔变量,即crossCheck,默认情况下为false。如果为true,则Matcher仅返回具有值(i,j)的那些匹配项,以使集合A中的第i个描述符具有集合B中的第j个描述符为最佳匹配,反之亦然。即两组中的两个特征应彼此匹配。它提供了一致的结果,并且是D.Lowe在SIFT论文中提出的比率测试的良好替代方案。

创建之后,两个重要的方法是BFMatcher.match()和BFMatcher.knnMatch()。第一个返回最佳匹配。第二种方法返回k个最佳匹配,其中k由用户指定。当我们需要对此做其他工作时,它可能会很有用。

就像我们使用cv.drawKeypoints()绘制关键点一样,cv.drawMatches()可以帮助我们绘制匹配项。它水平堆叠两张图像,并绘制从第一张图像到第二张图像的线,以显示最佳匹配。还有cv.drawMatchesKnn绘制所有k个最佳匹配。如果k=2,它将为每个关键点绘制两条匹配线。因此,如果要选择性地绘制,则必须通过掩码。

让我们来看一个SIFT和ORB的示例(两者都使用不同的距离测量)。

使用ORB描述符进行Brute-Force匹配

在这里,我们将看到一个有关如何在两个图像之间匹配特征的简单示例。在这种情况下,我有一个queryImage和trainImage。我们将尝试使用特征匹配在trainImage中找到queryImage。(图像是/samples/data/box.png和/samples/data/box_in_scene.png)

我们正在使用ORB描述符来匹配特征。因此,让我们从加载图像,查找描述符等开始。

  1. import numpy as np
  2. import cv2 as cv
  3. import matplotlib.pyplot as plt
  4. img1 = cv.imread('box.png',cv.IMREAD_GRAYSCALE) # 索引图像
  5. img2 = cv.imread('box_in_scene.png',cv.IMREAD_GRAYSCALE) # 训练图像
  6. # 初始化ORB检测器
  7. orb = cv.ORB_create()
  8. # 基于ORB找到关键点和检测器
  9. kp1, des1 = orb.detectAndCompute(img1,None)
  10. kp2, des2 = orb.detectAndCompute(img2,None)

接下来,我们创建一个距离测量值为cv.NORM_HAMMING的BFMatcher对象(因为我们使用的是ORB),并且启用了CrossCheck以获得更好的结果。然后,我们使用Matcher.match()方法来获取两个图像中的最佳匹配。我们按照距离的升序对它们进行排序,以使最佳匹配(低距离)排在前面。然后我们只抽出前10的匹配(只是为了提高可见度。您可以根据需要增加它)

  1. # 创建BF匹配器的对象
  2. bf = cv.BFMatcher(cv.NORM_HAMMING, crossCheck=True) # 匹配描述符.
  3. matches = bf.match(des1,des2) # 根据距离排序
  4. matches = sorted(matches, key = lambda x:x.distance) # 绘制前10的匹配项
  5. img3 = cv.drawMatches(img1,kp1,img2,kp2,matches[:10],None,flags=cv.DrawMatchesFlags_NOT_DRAW_SINGLE_POINTS) plt.imshow(img3),plt.show()

将获得以下的结果:

什么是Matcher对象?

matchs = bf.match(des1,des2)行的结果是DMatch对象的列表。该DMatch对象具有以下属性:

  • DMatch.distance-描述符之间的距离。越低越好。
  • DMatch.trainIdx-火车描述符中的描述符索引
  • DMatch.queryIdx-查询描述符中的描述符索引
  • DMatch.imgIdx-火车图像的索引。

带有SIFT描述符和比例测试的Brute-Force匹配

这次,我们将使用BFMatcher.knnMatch()获得k个最佳匹配。在此示例中,我们将k = 2,以便可以应用D.Lowe在他的论文中阐述的比例测试。

  1. import numpy as np
  2. import cv2 as cv
  3. import matplotlib.pyplot as plt
  4. img1 = cv.imread('box.png',cv.IMREAD_GRAYSCALE) # 索引图像
  5. img2 = cv.imread('box_in_scene.png',cv.IMREAD_GRAYSCALE) # 训练图像
  6. # 初始化SIFT描述符
  7. sift = cv.xfeatures2d.SIFT_create()
  8. # 基于SIFT找到关键点和描述符
  9. kp1, des1 = sift.detectAndCompute(img1,None)
  10. kp2, des2 = sift.detectAndCompute(img2,None)
  11. # 默认参数初始化BF匹配器
  12. bf = cv.BFMatcher()
  13. matches = bf.knnMatch(des1,des2,k=2)
  14. # 应用比例测试
  15. good = []
  16. for m,n in matches:
  17. if m.distance < 0.75*n.distance:
  18. good.append([m])
  19. # cv.drawMatchesKnn将列表作为匹配项。
  20. img3 = cv.drawMatchesKnn(img1,kp1,img2,kp2,good,None,flags=cv.DrawMatchesFlags_NOT_DRAW_SINGLE_POINTS)
  21. plt.imshow(img3),plt.show()

查看以下结果:

基于匹配器的FLANN

FLANN是近似最近邻的快速库。它包含一组算法,这些算法针对大型数据集中的快速最近邻搜索和高维特征进行了优化。对于大型数据集,它的运行速度比BFMatcher快。我们将看到第二个基于FLANN的匹配器示例。

对于基于FLANN的匹配器,我们需要传递两个字典,这些字典指定要使用的算法,其相关参数等。第一个是IndexParams。对于各种算法,要传递的信息在FLANN文档中进行了说明。概括来说,对于SIFT,SURF等算法,您可以通过以下操作:

  1. FLANN_INDEX_KDTREE = 1
  2. index_params = dict(algorithm = FLANN_INDEX_KDTREE, trees = 5)

使用ORB时,你可以参考下面。根据文档建议使用带注释的值,但在某些情况下未提供必需的参数。其他值也可以正常工作。

  1. FLANN_INDEX_LSH = 6
  2. index_params= dict(algorithm = FLANN_INDEX_LSH,
  3. table_number = 6, # 12
  4. key_size = 12, # 20
  5. multi_probe_level = 1) #2

第二个字典是SearchParams。它指定索引中的树应递归遍历的次数。较高的值可提供更好的精度,但也需要更多时间。如果要更改值,请传递search_params = dict(checks = 100)

有了这些信息,我们就很容易了。

  1. import numpy as np
  2. import cv2 as cv
  3. import matplotlib.pyplot as plt
  4. img1 = cv.imread('box.png',cv.IMREAD_GRAYSCALE) # 索引图像
  5. img2 = cv.imread('box_in_scene.png',cv.IMREAD_GRAYSCALE) # 训练图像
  6. # 初始化SIFT描述符
  7. sift = cv.xfeatures2d.SIFT_create()
  8. # 基于SIFT找到关键点和描述符
  9. kp1, des1 = sift.detectAndCompute(img1,None)
  10. kp2, des2 = sift.detectAndCompute(img2,None)
  11. # FLANN的参数
  12. FLANN_INDEX_KDTREE = 1
  13. index_params = dict(algorithm = FLANN_INDEX_KDTREE, trees = 5)
  14. search_params = dict(checks=50) # 或传递一个空字典
  15. flann = cv.FlannBasedMatcher(index_params,search_params)
  16. matches = flann.knnMatch(des1,des2,k=2)
  17. # 只需要绘制好匹配项,因此创建一个掩码
  18. matchesMask = [[0,0] for i in range(len(matches))]
  19. # 根据Lowe的论文进行比例测试
  20. for i,(m,n) in enumerate(matches):
  21. if m.distance < 0.7*n.distance:
  22. matchesMask[i]=[1,0]
  23. draw_params = dict(matchColor = (0,255,0),
  24. singlePointColor = (255,0,0),
  25. matchesMask = matchesMask,
  26. flags = cv.DrawMatchesFlags_DEFAULT)
  27. img3 = cv.drawMatchesKnn(img1,kp1,img2,kp2,matches,None,**draw_params)
  28. plt.imshow(img3,),plt.show()

查看以下结果:

欢迎关注磐创博客资源汇总站:

http://docs.panchuang.net/

欢迎关注PyTorch官方中文教程站:

http://pytorch.panchuang.net/

OpenCV中文官方文档:

http://woshicver.com/

OpenCV-Python 特征匹配 | 四十四的更多相关文章

  1. OpenCV开发笔记(六十四):红胖子8分钟带你深入了解SURF特征点(图文并茂+浅显易懂+程序源码)

    若该文为原创文章,未经允许不得转载原博主博客地址:https://blog.csdn.net/qq21497936原博主博客导航:https://blog.csdn.net/qq21497936/ar ...

  2. Python学习笔记(十四)

    Python学习笔记(十四): Json and Pickle模块 shelve模块 1. Json and Pickle模块 之前我们学习过用eval内置方法可以将一个字符串转成python对象,不 ...

  3. 孤荷凌寒自学python第四十四天Python操作 数据库之准备工作

     孤荷凌寒自学python第四十四天Python操作数据库之准备工作 (完整学习过程屏幕记录视频地址在文末,手写笔记在文末) 今天非常激动地开始接触Python的数据库操作的学习了,数据库是系统化设计 ...

  4. python自动华 (十四)

    Python自动化 [第十四篇]:HTML介绍 本节内容: Html 概述 HTML文档 常用标签 2. CSS 概述 CSS选择器 CSS常用属性 1.HTML 1.1概述 HTML是英文Hyper ...

  5. 网站开发进阶(四十四)input type="submit" 和"button"的区别

    网站开发进阶(四十四)input type="submit" 和"button"的区别   在一个页面上画一个按钮,有四种办法: 这就是一个按钮.如果你不写ja ...

  6. NeHe OpenGL教程 第四十四课:3D光晕

    转自[翻译]NeHe OpenGL 教程 前言 声明,此 NeHe OpenGL教程系列文章由51博客yarin翻译(2010-08-19),本博客为转载并稍加整理与修改.对NeHe的OpenGL管线 ...

  7. Gradle 1.12用户指南翻译——第四十四章. 分发插件

    本文由CSDN博客貌似掉线翻译,其他章节的翻译请参见: http://blog.csdn.net/column/details/gradle-translation.html 翻译项目请关注Githu ...

  8. SQL注入之Sqli-labs系列第四十一关(基于堆叠注入的盲注)和四十二关四十三关四十四关四十五关

    0x1普通测试方式 (1)输入and1=1和and1=2测试,返回错误,证明存在注入 (2)union select联合查询 (3)查询表名 (4)其他 payload: ,( ,( 0x2 堆叠注入 ...

  9. “全栈2019”Java第四十四章:继承

    难度 初级 学习时间 10分钟 适合人群 零基础 开发语言 Java 开发环境 JDK v11 IntelliJ IDEA v2018.3 文章原文链接 "全栈2019"Java第 ...

  10. Android项目实战(四十四):Zxing二维码切换横屏扫描

    原文:Android项目实战(四十四):Zxing二维码切换横屏扫描 Demo链接 默认是竖屏扫描,但是当我们在清单文件中配置横屏显示的时候: <activity android:name=&q ...

随机推荐

  1. Cenots 7 通过Yum 安装Node.js 报错问题

    环境:CentOS Linux release 7.3.1611 (Core) 安装报错信息: [cenots7@localhost ~]$ sudo yum -y install npm Loade ...

  2. 带你学习ES5中新增的方法

    1. ES5中新增了一些方法,可以很方便的操作数组或者字符串,这些方法主要包括以下几个方面 数组方法 字符串方法 对象方法 2. 数组方法 迭代遍历方法:forEach().map().filter( ...

  3. 前端面试题(HTML、CSS部分)

    HTML.CSS部分: 一.html5有哪些新特性.移除了那些元素?如何处理HTML5新标签的浏览器兼容问题?如何区分 HTML 和 HTML5?   新特性: HTML5 现在已经不是 SGML 的 ...

  4. 【,NetCore】WebApi使用统一时间格式

    1.在Startup中配置统一时间格式 services.AddMvc() .AddJsonOptions(options => { //配置时间序列化格式 options.Serializer ...

  5. .netCore下的jwt的梳理-->借鉴于“老张的哲学”

    之前在公司的项目中有用到jwt进行token验证,但是公司里用的框架已经集成好了jwt,所以对jwt的的了解不够清晰,感觉还是隔着一层.在看了“老张的哲学”的jwt部分后对jwt的认识才更加深刻了一些 ...

  6. Layabox 世界坐标和屏幕坐标互转

    最近在入坑Layabox,花了几天时间做世界坐标和屏幕坐标的互转,由于Layabox没有现成的代码所以只能自己手动写,大概就是模仿unity里面的ScreenToWorldPoint和WorldToS ...

  7. 简说Python之IO

    闺女,你在玩电脑什么游戏? 爸爸,我在玩植物大战僵尸呢. 闺女,你知道什么是输入输出设备吗? 爸爸,??? 你看,咱们的键盘和鼠标 ,就是可以控制那些植物的工具.这些发出指令的就是输入设备.咱们可以用 ...

  8. Vue2.0 【第一季】第8节 v-pre & v-cloak & v-once

    目录 Vue2.0 [第一季] 第8节 v-pre & v-cloak & v-once v-pre 指令 v-cloak 指令 v-once 指令 Vue2.0 [第一季] 第8节 ...

  9. element UI中的tab切换栏

    html代码:(用的是el-tab组件) <el-tabs v-model="activeIndex" type="border-card" @tab-c ...

  10. 初学react

    React特点: 声明式设计:建议使用JSX来描述用户界面;构建组件:单向响应的数据流: JSX:JSX是一种JAVASCRIPT的语法扩展,元素是构成react的最小单位,JSX就是用来声明REAC ...