demo.py

  1. import cv2
  2. from detection.mtcnn import MTCNN
  3. # 检测图片中的人脸
  4. def test_image(imgpath):
  5. mtcnn = MTCNN('./mtcnn.pb')
  6. img = cv2.imread(imgpath)
  7. bbox, landmarks, scores = mtcnn.detect_faces(img)
  8. print('total box:', len(bbox))
  9. for box, pts in zip(bbox, landmarks):
  10. box = box.astype('int32')
  11. img = cv2.rectangle(img, (box[1], box[0]), (box[3], box[2]), (255, 0, 0), 3)
  12. pts = pts.astype('int32')
  13. for i in range(5):
  14. img = cv2.circle(img, (pts[i + 5], pts[i]), 1, (0, 255, 0), 2)
  15. cv2.imshow('image', img)
  16. cv2.waitKey()
  17. # 检测视频中的人脸
  18. def test_camera():
  19. mtcnn = MTCNN('./mtcnn.pb')
  20. cap = cv2.VideoCapture('rtsp://admin:hik12345@192.168.3.160/Streaming/Channels/1')
  21. while True:
  22. ret, img = cap.read()
  23. if not ret:
  24. break
  25. bbox, landmarks, scores = mtcnn.detect_faces(img)
  26. print('total box:', len(bbox), scores)
  27. for box, pts in zip(bbox, landmarks):
  28. box = box.astype('int32')
  29. img = cv2.rectangle(img, (box[1], box[0]), (box[3], box[2]), (255, 0, 0), 3)
  30. pts = pts.astype('int32')
  31. for i in range(5):
  32. img = cv2.circle(img, (pts[i], pts[i + 5]), 1, (0, 255, 0), 2)
  33. cv2.imshow('img', img)
  34. cv2.waitKey(1)
  35. if __name__ == '__main__':
  36. # test_image()
  37. test_camera()

mtcnn.py

  1. import tensorflow as tf
  2. from detection.align_trans import get_reference_facial_points, warp_and_crop_face
  3. import numpy as np
  4. import cv2
  5. import detection.face_preprocess as face_preprocess
  6. class MTCNN:
  7. def __init__(self, model_path, min_size=40, factor=0.709, thresholds=[0.7, 0.8, 0.8]):
  8. self.min_size = min_size
  9. self.factor = factor
  10. self.thresholds = thresholds
  11. graph = tf.Graph()
  12. with graph.as_default():
  13. with open(model_path, 'rb') as f:
  14. graph_def = tf.GraphDef.FromString(f.read())
  15. tf.import_graph_def(graph_def, name='')
  16. self.graph = graph
  17. config = tf.ConfigProto(
  18. allow_soft_placement=True,
  19. intra_op_parallelism_threads=4,
  20. inter_op_parallelism_threads=4)
  21. config.gpu_options.allow_growth = True
  22. self.sess = tf.Session(graph=graph, config=config)
  23. self.refrence = get_reference_facial_points(default_square=True)
  24. # 人脸检测
  25. def detect_faces(self, img):
  26. feeds = {
  27. self.graph.get_operation_by_name('input').outputs[0]: img,
  28. self.graph.get_operation_by_name('min_size').outputs[0]: self.min_size,
  29. self.graph.get_operation_by_name('thresholds').outputs[0]: self.thresholds,
  30. self.graph.get_operation_by_name('factor').outputs[0]: self.factor
  31. }
  32. fetches = [self.graph.get_operation_by_name('prob').outputs[0],
  33. self.graph.get_operation_by_name('landmarks').outputs[0],
  34. self.graph.get_operation_by_name('box').outputs[0]]
  35. prob, landmarks, box = self.sess.run(fetches, feeds)
  36. return box, landmarks, prob
  37. # 对齐获取单个人脸
  38. def align_face(self, img):
  39. ret = self.detect_faces(img)
  40. if ret is None:
  41. return None
  42. bbox, landmarks, prob = ret
  43. if bbox.shape[0] == 0:
  44. return None
  45. landmarks_copy = landmarks.copy()
  46. landmarks[:, 0:5] = landmarks_copy[:, 5:10]
  47. landmarks[:, 5:10] = landmarks_copy[:, 0:5]
  48. # print(landmarks[0, :])
  49. bbox = bbox[0, 0:4]
  50. bbox = bbox.astype(int)
  51. bbox = bbox[::-1]
  52. bbox_copy = bbox.copy()
  53. bbox[0:2] = bbox_copy[2:4]
  54. bbox[2:4] = bbox_copy[0:2]
  55. # print(bbox)
  56. points = landmarks[0, :].reshape((2, 5)).T
  57. # print(points)
  58. '''
  59. face_img = cv2.rectangle(img, (bbox[0], bbox[1]), (bbox[2], bbox[3]), (0, 0, 255), 6)
  60. for i in range(5):
  61. pts = points[i, :]
  62. face_img = cv2.circle(face_img, (pts[0], pts[1]), 2, (0, 255, 0), 2)
  63. cv2.imshow('img', face_img)
  64. if cv2.waitKey(100000) & 0xFF == ord('q'):
  65. cv2.destroyAllWindows()
  66. '''
  67. warped_face = face_preprocess.preprocess(img, bbox, points, image_size='112,112')
  68. '''
  69. cv2.imshow('face', warped_face)
  70. if cv2.waitKey(100000) & 0xFF == ord('q'):
  71. cv2.destroyAllWindows()
  72. '''
  73. # warped_face = cv2.cvtColor(warped_face, cv2.COLOR_BGR2RGB)
  74. # aligned = np.transpose(warped_face, (2, 0, 1))
  75. # return aligned
  76. return warped_face
  77. # 对齐获取多个人脸
  78. def align_multi_faces(self, img, limit=None):
  79. boxes, landmarks, _ = self.detect_faces(img)
  80. if limit:
  81. boxes = boxes[:limit]
  82. landmarks = landmarks[:limit]
  83. landmarks_copy = landmarks.copy()
  84. landmarks[:, 0:5] = landmarks_copy[:, 5:10]
  85. landmarks[:, 5:10] = landmarks_copy[:, 0:5]
  86. # print('landmarks', landmark)
  87. faces = []
  88. for idx in range(len(landmarks)):
  89. '''
  90. landmark = landmarks[idx, :]
  91. facial5points = [[landmark[j], landmark[j + 5]] for j in range(5)]
  92. warped_face = warp_and_crop_face(np.array(img), facial5points, self.refrence, crop_size=(112, 112))
  93. faces.append(warped_face)
  94. '''
  95. bbox = boxes[idx, 0:4]
  96. bbox = bbox.astype(int)
  97. bbox = bbox[::-1]
  98. bbox_copy = bbox.copy()
  99. bbox[0:2] = bbox_copy[2:4]
  100. bbox[2:4] = bbox_copy[0:2]
  101. # print(bbox)
  102. points = landmarks[idx, :].reshape((2, 5)).T
  103. # print(points)
  104. warped_face = face_preprocess.preprocess(img, bbox, points, image_size='112,112')
  105. cv2.imshow('faces', warped_face)
  106. # warped_face = cv2.cvtColor(warped_face, cv2.COLOR_BGR2RGB)
  107. # aligned = np.transpose(warped_face, (2, 0, 1))
  108. faces.append(warped_face)
  109. # print('faces',faces)
  110. # print('boxes',boxes)
  111. return faces, boxes, landmarks

MTCNN 人脸检测的更多相关文章

  1. 项目实战 - 原理讲解<-> Keras框架搭建Mtcnn人脸检测平台

    Mtcnn它是2016年中国科学院深圳研究院提出的用于人脸检测任务的多任务神经网络模型,该模型主要采用了三个级联的网络,采用候选框加分类器的思想,进行快速高效的人脸检测.这三个级联的网络分别是快速生成 ...

  2. MTCNN人脸检测 附完整C++代码

    人脸检测 识别一直是图像算法领域一个主流话题. 前年 SeetaFace 开源了人脸识别引擎,一度成为热门话题. 虽然后来SeetaFace 又放出来 2.0版本,但是,我说但是... 没有训练代码, ...

  3. MTCNN人脸检测识别笔记

    论文:Joint Face Detection and Alignment using Multi-task Cascaded Convolutional Networks 论文链接:https:// ...

  4. MTCNN算法与代码理解—人脸检测和人脸对齐联合学习

    目录 写在前面 算法Pipeline详解 如何训练 损失函数 训练数据准备 多任务学习与在线困难样本挖掘 预测过程 参考 博客:blog.shinelee.me | 博客园 | CSDN 写在前面 主 ...

  5. 第三十七节、人脸检测MTCNN和人脸识别Facenet(附源码)

    在说到人脸检测我们首先会想到利用Harr特征提取和Adaboost分类器进行人脸检测(有兴趣的可以去一看这篇博客第九节.人脸检测之Haar分类器),其检测效果也是不错的,但是目前人脸检测的应用场景逐渐 ...

  6. 人脸检测——MTCNN

    人脸检测——MTCNN .

  7. 基于MTCNN多任务级联卷积神经网络进行的人脸识别 世纪晟人脸检测

    神经网络和深度学习目前为处理图像识别的许多问题提供了最佳解决方案,而基于MTCNN(多任务级联卷积神经网络)的人脸检测算法也解决了传统算法对环境要求高.人脸要求高.检测耗时高的弊端. 基于MTCNN多 ...

  8. 使用TensorRT对人脸检测网络MTCNN进行加速

    前言 最近在做人脸比对的工作,需要用到人脸关键点检测的算法,比较成熟和通用的一种算法是 MTCNN,可以同时进行人脸框选和关键点检测,对于每张脸输出 5 个关键点,可以用来进行人脸对齐. 问题 刚开始 ...

  9. caffe_实战之两个简单的例子(物体分类和人脸检测)

    一.物体分类: 这里使用的是caffe官网中自带的例子,我这里主要是对代码的解释~ 首先导入一些必要的库: import caffe import numpy as np import matplot ...

随机推荐

  1. SQL server int 转char类型

    CONVERT(CHAR,c.battery_board_id) CONVERT(VARCHAR,c.battery_board_id)

  2. Android开发实践:Android.mk模板

    关于Android NDK开发的文章已经比较多了,我的博客中也分享了很多NDK开发相关经验和技巧,今天简单写了一个 Android.mk 的示例模板,供初学者参考. 本模板主要给大家示例 Androi ...

  3. Java——final

  4. 洛谷P4391 [BOI2009]Radio Transmission 无线传输——题解

    题目传送 假如我们有一个用于循环连接的最短串ans,考虑用它造出来的数据(即输入的字符串s)有什么特点.发现:ans自我连接出一个大串z后从中取出的一个子串即为s,对s造一个KMP算法中的next数组 ...

  5. [CSP-S模拟测试]:砍树(数学+模拟)

    题目传送门(内部题1) 输入格式 第一行两个整数$n$,$k$,代表树苗的数量和最大看书的总长度.第二行n个整数$a_i$,代表林先森希望每棵树苗的最终高度. 输出格式 一行一个整数,代表最大可能的d ...

  6. [BZOJ2038]:[2009国家集训队]小Z的袜子(hose)(离线莫队)

    题目传送门 题目描述 作为一个生活散漫的人,小$Z$每天早上都要耗费很久从一堆五颜六色的袜子中找出一双来穿.终于有一天,小Z再也无法忍受这恼人的找袜子过程,于是他决定听天由命……具体来说,小$Z$把这 ...

  7. Vim 编辑器学习笔记

    参考资料: 世界上最牛的编辑器: Vim 1

  8. Redis实现存取数据+数据存取

    添加依赖: <dependency> <groupId>com.fasterxml.jackson.core</groupId> <artifactId> ...

  9. mysql语句练习50题

    为了练习sql语句,在网上找了一些题,自己做了一遍,收益颇多.很多地方换一种思路,有更好的写法,欢迎指正. 题目地址:https://blog.csdn.net/fashion2014/article ...

  10. 无法绕开的cut, awk, sed命令

    linux命令的选项和选项后面的值的方式: 如果用 短选项, 选项值就放在短选项的后面, 如果用长选项, 值就用等于的方式. 最重要的是, 短选项后面的值, 跟短选项之间, 可以用空格, 也可以紧接着 ...