摘要:​YOLOv5并不是一个单独的模型,而是一个模型家族,包括了YOLOv5s、YOLOv5m、YOLO...

本文分享自华为云社区《YoloV5实战:手把手教物体检测——YoloV5》,作者: AI浩 。

摘要

YOLOV5严格意义上说并不是YOLO的第五个版本,因为它并没有得到YOLO之父Joe Redmon的认可,但是给出的测试数据总体表现还是不错。详细数据如下

YOLOv5并不是一个单独的模型,而是一个模型家族,包括了YOLOv5s、YOLOv5m、YOLOv5l、YOLOv5x、YOLOv5x+TTA,这点有点儿像EfficientDet。由于没有找到V5的论文,我们也只能从代码去学习它。总体上和YOLOV4差不多,可以认为是YOLOV5的加强版。

项目地址:GitHub - ultralytics/yolov5: YOLOv5 in PyTorch > ONNX > CoreML > TFLite

训练

1、下载代码

项目地址:https://github.com/ultralytics/YOLOv5,最近作者又更新了一些代码。

2、配置环境

  1. matplotlib>=3.2.2
  2.  
  3. numpy>=1.18.5
  4.  
  5. opencv-python>=4.1.2
  6.  
  7. pillow
  8.  
  9. PyYAML>=5.3
  10.  
  11. scipy>=1.4.1
  12.  
  13. tensorboard>=2.2
  14.  
  15. torch>=1.6.0
  16.  
  17. torchvision>=0.7.0
  18.  
  19. tqdm>=4.41.0

3、准备数据集

数据集采用Labelme标注的数据格式,数据集从RSOD数据集中获取了飞机和油桶两类数据集,并将其转为Labelme标注的数据集。

数据集的地址: https://pan.baidu.com/s/1iTUpvA9_cwx1qiH8zbRmDg

提取码:gr6g

或者:LabelmeData.zip_yolov5实战-深度学习文档类资源-CSDN下载

将下载的数据集解压后放到工程的根目录。为下一步生成测试用的数据集做准备。如下图:

4、生成数据集

YoloV5的数据集和以前版本的数据集并不相同,我们先看一下转换后的数据集。

数据结构如下图:

images文件夹存放train和val的图片

labels里面存放train和val的物体数据,里面的每个txt文件和images里面的图片是一一对应的。

txt文件的内容如下:

格式:物体类别 x y w h

坐标是不是真实的坐标,是将坐标除以宽高后的计算出来的,是相对于宽和高的比例。

下面我们编写生成数据集的代码,新建LabelmeToYoloV5.py,然后写入下面的代码。

  1. import os
  2.  
  3. import numpy as np
  4.  
  5. import json
  6.  
  7. from glob import glob
  8.  
  9. import cv2
  10.  
  11. from sklearn.model_selection import train_test_split
  12.  
  13. from os import getcwd
  14. classes = ["aircraft", "oiltank"]
  15.  
  16. # 1.标签路径
  17.  
  18. labelme_path = "LabelmeData/"
  19.  
  20. isUseTest = True # 是否创建test集
  21.  
  22. # 3.获取待处理文件
  23.  
  24. files = glob(labelme_path + "*.json")
  25.  
  26. files = [i.replace("\\", "/").split("/")[-1].split(".json")[0] for i in files]
  27.  
  28. print(files)
  29.  
  30. if isUseTest:
  31.  
  32. trainval_files, test_files = train_test_split(files, test_size=0.1, random_state=55)
  33.  
  34. else:
  35.  
  36. trainval_files = files
  37.  
  38. # split
  39.  
  40. train_files, val_files = train_test_split(trainval_files, test_size=0.1, random_state=55)
  41. def convert(size, box):
  42.  
  43. dw = 1. / (size[0])
  44.  
  45. dh = 1. / (size[1])
  46.  
  47. x = (box[0] + box[1]) / 2.0 - 1
  48.  
  49. y = (box[2] + box[3]) / 2.0 - 1
  50.  
  51. w = box[1] - box[0]
  52.  
  53. h = box[3] - box[2]
  54.  
  55. x = x * dw
  56.  
  57. w = w * dw
  58.  
  59. y = y * dh
  60.  
  61. h = h * dh
  62.  
  63. return (x, y, w, h)
  64. wd = getcwd()
  65.  
  66. print(wd)
  67. def ChangeToYolo5(files, txt_Name):
  68.  
  69. if not os.path.exists('tmp/'):
  70.  
  71. os.makedirs('tmp/')
  72.  
  73. list_file = open('tmp/%s.txt' % (txt_Name), 'w')
  74.  
  75. for json_file_ in files:
  76.  
  77. json_filename = labelme_path + json_file_ + ".json"
  78.  
  79. imagePath = labelme_path + json_file_ + ".jpg"
  80.  
  81. list_file.write('%s/%s\n' % (wd, imagePath))
  82.  
  83. out_file = open('%s/%s.txt' % (labelme_path, json_file_), 'w')
  84.  
  85. json_file = json.load(open(json_filename, "r", encoding="utf-8"))
  86.  
  87. height, width, channels = cv2.imread(labelme_path + json_file_ + ".jpg").shape
  88.  
  89. for multi in json_file["shapes"]:
  90.  
  91. points = np.array(multi["points"])
  92.  
  93. xmin = min(points[:, 0]) if min(points[:, 0]) > 0 else 0
  94.  
  95. xmax = max(points[:, 0]) if max(points[:, 0]) > 0 else 0
  96.  
  97. ymin = min(points[:, 1]) if min(points[:, 1]) > 0 else 0
  98.  
  99. ymax = max(points[:, 1]) if max(points[:, 1]) > 0 else 0
  100.  
  101. label = multi["label"]
  102.  
  103. if xmax <= xmin:
  104.  
  105. pass
  106.  
  107. elif ymax <= ymin:
  108.  
  109. pass
  110.  
  111. else:
  112.  
  113. cls_id = classes.index(label)
  114.  
  115. b = (float(xmin), float(xmax), float(ymin), float(ymax))
  116.  
  117. bb = convert((width, height), b)
  118.  
  119. out_file.write(str(cls_id) + " " + " ".join([str(a) for a in bb]) + '\n')
  120.  
  121. print(json_filename, xmin, ymin, xmax, ymax, cls_id)
  122.  
  123. ChangeToYolo5(train_files, "train")
  124.  
  125. ChangeToYolo5(val_files, "val")
  126.  
  127. ChangeToYolo5(test_files, "test")

这段代码执行完成会在LabelmeData生成每个图片的txt标注数据,同时在tmp文件夹下面生成训练集、验证集和测试集的txt,txt记录的是图片的路径,为下一步生成YoloV5训练和测试用的数据集做准备。在tmp文件夹下面新建MakeData.py文件,生成最终的结果,目录结构如下图:

打开MakeData.py,写入下面的代码。

  1. import shutil
  2. import os
  3.  
  4. file_List = ["train", "val", "test"]
  5. for file in file_List:
  6. if not os.path.exists('../VOC/images/%s' % file):
  7. os.makedirs('../VOC/images/%s' % file)
  8. if not os.path.exists('../VOC/labels/%s' % file):
  9. os.makedirs('../VOC/labels/%s' % file)
  10. print(os.path.exists('../tmp/%s.txt' % file))
  11. f = open('../tmp/%s.txt' % file, 'r')
  12. lines = f.readlines()
  13. for line in lines:
  14. print(line)
  15. line = "/".join(line.split('/')[-5:]).strip()
  16. shutil.copy(line, "../VOC/images/%s" % file)
  17. line = line.replace('JPEGImages', 'labels')
  18. line = line.replace('jpg', 'txt')
  19. shutil.copy(line, "../VOC/labels/%s/" % file)

执行完成后就可以生成YoloV5训练使用的数据集了。结果如下:

5、修改配置参数

  1. 打开voc.yaml文件,修改里面的配置参数
  2.  
  3. train: VOC/images/train/ # 训练集图片的路径
  4.  
  5. val: VOC/images/val/ # 验证集图片的路径
  6.  
  7. # number of classes
  8.  
  9. nc: 2 #检测的类别,本次数据集有两个类别所以写2
  10. # class names
  11.  
  12. names: ["aircraft", "oiltank"]#类别的名称,和转换数据集时的list对应

6、修改train.py的参数

  1. cfg参数是YoloV5 模型的配置文件,模型的文件存放在models文件夹下面,按照需求填写不同的文件。
  2.  
  3. weights参数是YoloV5的预训练模型,和cfg对应,例:cfg配置的是yolov5s.yamlweights就要配置yolov5s.pt
  4.  
  5. data是配置数据集的配置文件,我们选用的是voc.yaml,所以配置data/voc.yaml
  6.  
  7. 修改上面三个参数就可以开始训练了,其他的参数根据自己的需求修改。修改后的参数配置如下:
  8.  
  9. parser.add_argument('--weights', type=str, default='yolov5s.pt', help='initial weights path')
  10.  
  11. parser.add_argument('--cfg', type=str, default='yolov5s.yaml', help='model.yaml path')
  12.  
  13. parser.add_argument('--data', type=str, default='data/voc.yaml', help='data.yaml path')

修改完成后,就可以开始训练了。如下图所示:

7、查看训练结果

在经历了300epoch训练之后,我们会在runs文件夹下面找到训练好的权重文件和训练过程的一些文件。如图:

测试

首先需要在voc.yaml中增加测试集的路径,打开voc.yaml,在val字段后面增加test: tmp/test.txt这行代码,如图:

修改test.py中的参数,下面的这几个参数要修改。

parser = argparse.ArgumentParser(prog='test.py')
parser.add_argument('--weights', nargs='+', type=str, default='runs/exp7/weights/best.pt', help='model.pt path(s)')
parser.add_argument('--data', type=str, default='data/voc.yaml', help='*.data path')
parser.add_argument('--batch-size', type=int, default=2, help='size of each image batch')
parser.add_argument('--save-txt', default='True', action='store_true', help='save results to *.txt')

在275行 修改test的方法,增加保存测试结果的路径。这样测试完成后就可以在inference\images查看到测试的图片,在inference\output中查看到保存的测试结果。

如图:

下面是运行的结果:

点击关注,第一时间了解华为云新鲜技术~

YoloV5实战:手把手教物体检测的更多相关文章

  1. 【YOLOv5】手把手教你使用LabVIEW ONNX Runtime部署 TensorRT加速,实现YOLOv5实时物体识别(含源码)

    前言 上一篇博客给大家介绍了LabVIEW开放神经网络交互工具包[ONNX],今天我们就一起来看一下如何使用LabVIEW开放神经网络交互工具包实现TensorRT加速YOLOv5. 以下是YOLOv ...

  2. yolov5实战之皮卡丘检测

    前言 从接触深度学习开始一直都做的是人脸识别,基本上也一直都在用mxnet. 记得之前在刚接触的时候看到博客中写到,深度学习分三个层次,第一个层次是分类,第二个层次是检测,第三个层次是分割.人脸识别算 ...

  3. 手把手教你用Pytorch-Transformers——实战(二)

    本文是<手把手教你用Pytorch-Transformers>的第二篇,主要讲实战 手把手教你用Pytorch-Transformers——部分源码解读及相关说明(一) 使用 PyTorc ...

  4. yolov5实战之二维码检测

    目录 1.前沿 2.二维码数据 3.训练配置 3.1数据集设置 3.2训练参数的配置 3.3网络结构设置 3.4训练 3.5结果示例 附录:数据集下载 1.前沿 之前总结过yolov5来做皮卡丘的检测 ...

  5. 手把手教你用深度学习做物体检测(五):YOLOv1介绍

    "之前写物体检测系列文章的时候说过,关于YOLO算法,会在后续的文章中介绍,然而,由于YOLO历经3个版本,其论文也有3篇,想全面的讲述清楚还是太难了,本周终于能够抽出时间写一些YOLO算法 ...

  6. 手把手教你用深度学习做物体检测(六):YOLOv2介绍

    本文接着上一篇<手把手教你用深度学习做物体检测(五):YOLOv1介绍>文章,介绍YOLOv2在v1上的改进.有些性能度量指标术语看不懂没关系,后续会有通俗易懂的关于性能度量指标的介绍文章 ...

  7. 30分钟手把手教你学webpack实战

    30分钟手把手教你学webpack实战 阅读目录 一:什么是webpack? 他有什么优点? 二:如何安装和配置 三:理解webpack加载器 四:理解less-loader加载器的使用 五:理解ba ...

  8. 手把手教你写电商爬虫-第三课 实战尚妆网AJAX请求处理和内容提取

    版权声明:本文为博主原创文章,未经博主允许不得转载. 系列教程: 手把手教你写电商爬虫-第一课 找个软柿子捏捏 手把手教你写电商爬虫-第二课 实战尚妆网分页商品采集爬虫 看完两篇,相信大家已经从开始的 ...

  9. 转:手把手教你如何玩转Solr(包含项目实战)

    原文地址:手把手教你如何玩转Solr(包含项目实战) 参考原文

  10. 每天记录一点:NetCore获得配置文件 appsettings.json vue-router页面传值及接收值 详解webpack + vue + node 打造单页面(入门篇) 30分钟手把手教你学webpack实战 vue.js+webpack模块管理及组件开发

    每天记录一点:NetCore获得配置文件 appsettings.json   用NetCore做项目如果用EF  ORM在网上有很多的配置连接字符串,读取以及使用方法 由于很多朋友用的其他ORM如S ...

随机推荐

  1. c#装饰器模式详解

    基础介绍:   动态地给一个对象添加一些额外的职责.适用于需要扩展一个类的功能,或给一个类添加多个变化的情况.   装饰器,顾名思义就是在原有基础上添加一些功能.   大家都只知道如果想单纯的给原有类 ...

  2. Xmind思维导图工具2023最新专业版破解思路

    工具介绍 XMind 是一款最为流行的专业级思维_导图_制作与编辑软件,它现在在全球范围内都已极具名气,可谓是办公.学习.团队交流必备工具之一. 准备工作 1,官方Xmind软件 2,一个心意的编辑器 ...

  3. C#.NET 国密SM4 CBC 对称加解密 与JAVA互通 ver:20231103

    C#.NET 国密SM4 CBC 对称加解密 与JAVA互通 ver:20231103 .NET 环境:.NET6 控制台程序(.net core). JAVA 环境:JAVA8,带maven 的JA ...

  4. mobaxterm软件的使用

    MobaXterm是一款功能强大的多功能远程计算机管理软件,可以在Windows操作系统下运行,支持SSH.Telnet.RDP.VNC等协议 一.软件下载与安装 下载地址:https://mobax ...

  5. Kepware楼宇自控BACnet/IP驱动

    BACnet/IP驱动是楼宇自动化设备驱动的集合,为用户提供一种方便快捷的楼宇自动化设备数采解决方案.只需要通过简单的配置就可以将常见的BACnet/IP协议设备无缝连接到 HMI/SCADA.MES ...

  6. Flask Session 登录认证模块

    Flask 框架提供了强大的 Session 模块组件,为 Web 应用实现用户注册与登录系统提供了方便的机制.结合 Flask-WTF 表单组件,我们能够轻松地设计出用户友好且具备美观界面的注册和登 ...

  7. Langchain使用自己定义的tool

    Langchain使用自己定义的tool 快速开始 tool是agent可用于与世界交互的功能.这些工具可以是通用实用程序(例如搜索).其他链,甚至是其他代理. 目前,可以使用以下代码片段加载工具: ...

  8. 实验代码Javaweb

    package test; import java.sql.*; import java.util.regex.Pattern; public class Data { //getter and se ...

  9. Vue项目的创建、运行与端口号修改

    前言:Vue-cli是Vue官方提供的一个脚手架,用于快速生成一个Vue的项目模板,依赖于NodeJS环境 NodeJS下载:NodeJS安装下载 Vue-cli下载:Vue-cli下载 一.Vue图 ...

  10. [ABC313F] Flip Machines

    Problem Statement There are $N$ cards numbered $1$ through $N$. Each face of a card has an integer w ...