https://blog.csdn.net/eereere/article/details/80176007 参考资料code:https://github.com/ildoonet/tf-pose-estimationpaper:https://arxiv.org/pdf/1611.08050.pdfMark的教学视频:https://www.youtube.com/watch?v=nUjGLjOmF7o                         (视频里特别详细,从conda环境,安装…
  你有没有过这种体验,拍照时对着镜头,脑子一片空白.表情僵硬.手和脚无处安放,最后拍出来的照片很是奇怪.拍照软件中的固定姿势抓拍功能可以帮助你:选择一个你想要的姿势模板,当你摆出同款姿势时,软件会进行自动抓拍,完美避开拍照时的尴尬.本文详细介绍了华为HMS ML kit人体骨骼识别技术的集成过程,该技术精准定位了14个骨骼点,可以轻松实现固定姿势抓拍.  人体骨骼检测功能开发实战   做了一个视频流骨骼识别小demo,做一次实战演练,Github demo源码:https://github.c…
代码地址如下:http://www.demodashi.com/demo/12967.html Python人体肤色检测 概述 本文中的人体肤色检测功能采用 OpenCV 库实现, OpenCV是一个基于BSD许可(开源)发行的跨平台计算机视觉库,可以运行在Linux.Windows.Android和Mac OS操作系统上. 它轻量级而且高效--由一系列 C 函数和少量 C++ 类构成,同时提供了Python.Ruby.MATLAB等语言的接口,实现了图像处理和计算机视觉方面的很多通用算法. 本…
因为之前正好看了CMU在CVPR2017上的论文<Realtime Multi-Person 2D Pose Estimation using Part Affinity Fields>,而且他们提供了训练好的模型.所以就直接用CMU训练的模型在AI challenge的数据集上做了测试.最后没有使用AI challenge训练集训练的模型在AI challenge上的得分是0.1667,可以看作是一个baseline. 以下是预处理的说明以及加入预处理程序的源代码.openpose的源代码使…
作者:冯牮 前言 本文不是神经网络或机器学习的入门教学,而是通过一个真实的产品案例,展示了在手机客户端上运行一个神经网络的关键技术点 在卷积神经网络适用的领域里,已经出现了一些很经典的图像分类网络,比如 VGG16/VGG19,Inception v1-v4 Net,ResNet 等,这些分类网络通常又都可以作为其他算法中的基础网络结构,尤其是 VGG 网络,被很多其他的算法借鉴,本文也会使用 VGG16 的基础网络结构,但是不会对 VGG 网络做详细的入门教学 虽然本文不是神经网络技术的入门教…
一.tensorflow提供的evaluation Inference and evaluation on the Open Images dataset:https://github.com/tensorflow/models/blob/master/research/object_detection/g3doc/oid_inference_and_evaluation.md 该链接中详细介绍了如何针对Open Images dataset数据集进行inference和evaluation,按…
mysql版本:5.7 : 数据库:rdshare:表captain_america3_sd用来记录某帧是否被检测.表captain_america3_d用来记录检测到的数据. python模块,包部分内容参考http://www.runoob.com/python/python-modules.html  https://www.cnblogs.com/ningskyer/articles/6025964.html 一.连接数据库 参考: # 将视频插入数据库 def video_insert…
一.运行样例 官网链接:https://github.com/tensorflow/models/blob/master/research/object_detection/object_detection_tutorial.ipynb  但是一直有问题,没有运行起来,所以先使用一个别人写好的代码 上一个在ubuntu下可用的代码链接:https://gitee.com/bubbleit/JianDanWuTiShiBie  使用python2运行,python3可能会有问题 该代码由https…
运行步骤 1.从 YOLO 官网下载 YOLOv3 权重 wget https://pjreddie.com/media/files/yolov3.weights 下载过程如图: 2.转换 Darknet YOLO 模型为 Keras 模型 python convert.py yolov3.cfg yolov3.weights model_data/yolo.h5 转换过程如图: 3.运行YOLO 目标检测 python yolo.py 需要下载一个图片,然后输入图片的名称,如图所示: 我并没有…
一.tensorflow安装 首先系统中已经安装了两个版本的tensorflow,一个是通过keras安装的, 一个是按照官网教程https://www.tensorflow.org/install/install_linux#InstallingNativePip使用Virtualenv 进行安装的,第二个在根目录下,做标记以防忘记. 安装教程: 使用 Virtualenv 进行安装 请按照以下步骤使用 Virtualenv 安装 TensorFlow: 发出下列其中一条命令来安装 pip 和…
参考:https://www.youtube.com/watch?v=lLM8oAsi32g import cv2    import numpy as np              def random_colors(N):        np.random.seed(1)        colors=[tuple(255*np.random.rand(3)) for _ in range(N)]        return colors         def apply_mask(ima…
Detectron概述 Detectron是Facebook FAIR开源了的一个目标检测(Object Detection)平台. 用一幅图简单说明下Object Detection.如Mask R-CNN已经能够做到多目标的Instance Segmentation. 图片来源: Fei-Fei Li, Andrej Karpathy & Justin Johnson (2016) cs231n, Lecture 8 - Slide 8, Spatial Localization and D…
来源 | Hackernoon 译者 | Revolver 前些天我参加了7 月24 日在美国旧金山举行的Google Cloud Next 2018 大会,其中的一个演讲( What's New with TensorFlow?),让我耳目一新,印象深刻. 于是于是今天早上呢,我总结了这段讲话里我最喜欢的几个点.总结完以后,我实在想不出有任何理由不与你们分享我的超短摘要(如果你还没看过视频的话--你完全应该看看,演讲者讲得真是太好了).下面我就把我总结的要点陈列出来. 一. 功能强大的机器学习…
之前有介绍过基于tensorflow的openpose版本安装,但是我觉得没有caffe框架那么好用,很多功能也实现不了,比如调节net_resolution的调节,通过调节分辨率来提高检测的精确性和检测速度.还有手.脸和足的关键点识别,这些目前来说,tensorflow版本都没有涉及到.所以寻求caffe框架好处多多,希望想进行大型项目开发的小伙伴还是选择caffe版本的,源码是c+.如果本身不太了解c++的小伙伴们,可以采用python api进行项目开发. 如果本文有讲的不清楚的地方,可以…
之前我们对人体骨点的雕刻,了解了人体骨骼比例结构特征.今天的ZBrush教程将通过ZBrush®遮罩显示的特点对模型的人体躯干进行细致雕刻.文章内容仅以fisker老师讲述为例,您也可以按照自己的想法,跟着老师的步调进行创作,让模型更富有创造力. 查看详细的视频教程可前往:http://www.zbrushcn.com/qita/renti-qugan.html 物体的显示与隐藏:我们通常使用显示和隐藏多边形可以加快操作速度,可以更近距离观察模型,也可以避免对不需要编辑的部分误操作. 显示和隐藏…
之前我们用ZBrush®中的Curves和Insert笔刷快速创建模型的躯干.四肢以及手指.经过老师耐心的讲解我们也收获了很多,知道了创建模型的流程和雕刻技巧.今天的ZBrush教程将结合一些新的雕刻笔刷完善人体造型雕刻,继续对剩下工作做进一步修缮.文章内容仅以fisker老师讲述为例,您也可以按照自己的想法,跟着老师的步调进行创作,让模型更富有创造力. 若有疑问可直接访问:http://www.zbrushcn.com/qita/renti-zaoxing.html 光滑模型:按住Shift键…
之前我们通过学习使用ZBrush®中的Curves和Insert笔刷快速创建模型的躯干.四肢以及手指.经过老师耐心的讲解我们也收获了很多,知道了创建模型的流程和雕刻技巧.今天的ZBrush教程我们将结合一些新的雕刻笔刷完善人体造型雕刻,继续对剩下工作做进一步修缮.文章内容仅以fisker老师讲述为例,您也可以按照自己的想法,跟着老师的步调进行创作,让模型更富有创造力. 查看详细的视频教程可前往:http://www.zbrushcn.com/qita/renti-zaoxing.html 光滑模…
3D骨骼动画是实现较为复杂3D场景的重要技术,Babylon.js引擎内置了对骨骼动画的支持,但Babylon.js使用的骨骼动画的模型多是从3DsMax.Blender等3D建模工具转换而来,骨骼动画的具体生成方式被透明化.本文从babylon格式的3D模型文件入手,对骨骼动画数据的生成方式进行具体分析,并尝试建立一个简易的3D骨骼动画生成工具. 一.模型文件分析 我们从Babylon.js官方网站上的一个骨骼动画示例开始分析: (示例地址:https://www.babylonjs-play…
http://www.ituring.com.cn/article/196144 作者/ 吴国斌 博士,PMP,微软亚洲研究院学术合作经理.负责中国高校及科研机构Kinect for Windows学术合作计划及微软精英大挑战Kinect主题项目.曾担任微软TechEd2011 Kinect论坛讲师,微软亚洲教育高峰会Kinect分论坛主席,中国计算机学会学科前沿讲习班Kinect主题学术主任. 骨骼追踪技术是Kinect的核心技术,它可以准确标定人体的20个关键点,并能对这20个点的位置进行实…
YOLO_Online 将深度学习最火的目标检测做成在线服务 第一次接触 YOLO 这个目标检测项目的时候,我就在想,怎么样能够封装一下让普通人也能够体验深度学习最火的目标检测项目,不需要关注技术细节,不需要装很多软件.只需要网页就能体验呢. 在踩了很多坑之后,终于实现了. 效果: 1.上传文件 2.选择了一张很多狗的图片 3.YOLO 一下 技术实现 web 用了 Django 来做界面,就是上传文件,保存文件这个功能. YOLO 的实现用的是 keras-yolo3,直接导入yolo 官方的…
"与其停留在概念理论层面,不如动手去实现一个简单demo ."       ——鲁迅 没有源码都是耍流氓github 前言 目前提供AI开发相关API接口的公司有很多,国外如微软.谷歌,国内的百度.腾讯等都有开放API接口.开发者只需要调用相关接口,几步就能开发出一个“智能APP”.通常情况AI接口有以下几类: 计算机视觉 图像分类.图像目标检测以及视频检测跟踪等等.这类API主要用于处理图像和视频,能够给图像打tag,并分析视频图片中的物体及其对应坐标轨迹等. 语言 包括自然语言处理…
1 引言 深度学习目前已经应用到了各个领域,应用场景大体分为三类:物体识别,目标检测,自然语言处理.本文着重与分析目标检测领域的深度学习方法,对其中的经典模型框架进行深入分析. 目标检测可以理解为是物体识别和物体定位的综合,不仅仅要识别出物体属于哪个分类,更重要的是得到物体在图片中的具体位置. 为了完成这两个任务,目标检测模型分为两类.一类是two-stage,将物体识别和物体定位分为两个步骤,分别完成,这一类的典型代表是R-CNN, fast R-CNN, faster-RCNN家族.他们识别…
项目地址 Abstract 该技术报告主要介绍了作者对 YOLOv1 的一系列改进措施(注意:不是对YOLOv2,但是借鉴了YOLOv2中的部分改进措施).虽然改进后的网络较YOLOv1大一些,但是检测结果更精确,运行速度依然很快.在输入图像分辨率为320*320时,YOLOv3运行耗时22ms,mAP达到28.2,这和SSD一样精确,但是速度比SSD快三倍.当我们使用旧的检测指标0.5 IOU mAP(IOU阈值取为0.5,然后比较mAP)时,YOLOv3依旧表现得相当好.在一个 Titan…
下图Github地址:Mask_RCNN       Mask_RCNN_KeyPoints『计算机视觉』Mask-RCNN_论文学习『计算机视觉』Mask-RCNN_项目文档翻译『计算机视觉』Mask-RCNN_推断网络其一:总览『计算机视觉』Mask-RCNN_推断网络其二:基于ReNet101的FPN共享网络『计算机视觉』Mask-RCNN_推断网络其三:RPN锚框处理和Proposal生成『计算机视觉』Mask-RCNN_推断网络其四:FPN和ROIAlign的耦合『计算机视觉』Mask…
论文下载:http://arxiv.org/abs/1506.02640 代码下载:https://github.com/pjreddie/darknet 1.创新点 端到端训练及推断 + 改革区域建议框式目标检测框架 + 实时目标检测 改革了区域建议框式检测框架: RCNN系列均需要生成建议框,在建议框上进行分类与回归,但建议框之间有重叠,这会带来很多重复工作.YOLO将全图划分为SXS的格子,每个格子负责中心在该格子的目标检测,采用一次性预测所有格子所含目标的bbox.定位置信度以及所有类别…
From: 手机端运行卷积神经网络的一次实践 -- 基于 TensorFlow 和 OpenCV 实现文档检测功能 貌似不错的东西:移动端视觉识别模型:MobileNets Holistically-nested Edge Detection 是屠卓文教授课题组在ICCV 2015 的工作. 该工作最大的亮点在于,一改之前边缘检测方法基于局部策略的方式,而是采用全局的图像到图像的处理方式. 即:不再针对一个个patch进行操作,而是对整幅图像进行操作,为高层级信息的获取提供了便利. 题材看上去很…
骨骼动画 首先我们来看到底什么是骨骼动画: 在早期的机器上,渲染本身已经占用了很多CPU资源,因此,对于渲染,往往采取的是一种空间换时间的策略,以避免在模型的渲染中继续加重CPU的负担.帧动画模型在这种条件下应运而生.比较著名的帧动画格式是Quake2所采用的MD2.到今天为止,帧动画依然存在,只不过帧动画更多地是来描述小且动作相对少些的物体. GPU出现后,CPU的问题早已不像以前那么突出,一些新的手段和技术也可以被应用进来了.骨骼动画相对于帧动画而言,更加灵活多变,但同时,骨骼动画需要更多的…
TF中文社区 TF_GOOGLE官方代码学习 1.TensorFlow-Slim TF-Slim 是 tensorflow 较新版本的扩充包,可以简化繁杂的网络定义,其中也提供了一些demo: AlexNet InceptionV1/V2/V3 OverFeat ResNet VGG 例如 VGG-16 网络,寥寥数行就可以定义完毕: def vgg16(inputs): with slim.arg_scope([slim.conv2d, slim.fully_connected], activ…
1 目标定位( object localization ) 目标定位既要识别,又要定位,它要做的事就是用一个框框把物体目标的位置标出来. 怎么做这个问题呢,我们考虑三目标的定位问题,假定图中最多只出现一个目标,假定图片的左上角为(0,0),右下角为(1,1). 我们输出层的标签有这么几个,pc, bx, by, bh, bw, c1, c2, c3,其中pc表示是否存在目标,c1,c2,c3分别代表三个类别的目标是否存在,(bx, by)表示框框中心点的坐标,bh表示框框高度,bw表示框框宽度.…
4.3目标检测 觉得有用的话,欢迎一起讨论相互学习~Follow Me 3.1目标定位 对象定位localization和目标检测detection 判断图像中的对象是不是汽车--Image classification 图像分类 不仅要判断图片中的物体还要在图片中标记出它的位置--Classification with localization定位分类 当图片中有 多个 对象时,检测出它们并确定出其位置,其相对于图像分类和定位分类来说强调一张图片中有 多个 对象--Detection目标检测…