CVPixelBufferRef
在iOS里,我们经常能看到 CVPixelBufferRef 这个类型,在Camera 采集返回的数据里得到一个CMSampleBufferRef,而每个CMSampleBufferRef里则包含一个 CVPixelBufferRef,在视频硬解码的返回数据里也是一个 CVPixelBufferRef。
顾名思义,CVPixelBufferRef 是一种像素图片类型,由于CV开头,所以它是属于 CoreVideo 模块的。
iOS喜欢在对象命名前面用缩写表示它属于的模块,比如 CF 代表 CoreFoundation,CG代表 CoreGraphic,CM代表 CoreMedia。既然属于 CoreVideo那么它就和视频处理相关了。
它是一个C对象,而不是Objective C对象,所以它不是一个类,而是一个类似Handle的东西。从代码头文件的定义来看
CVPixelBufferRef 就是用 CVBufferRef typedef而来的,而CVBufferRef 本质上就是一个void *,至于这个void *具体指向什么数据只有系统才知道了。
所以我们看到 所有对 CVPixelBufferRef 进行操作的函数都是纯 C 函数,这很符合iOS CoreXXXX系列 API 的风格。
比如 CVPixelBufferGetWidth, CVPixelBufferGetBytesPerRow
通过API可以看出来,CVPixelBufferRef里包含很多图片相关属性,比较重要的有 width,height,PixelFormatType等。
由于可以有不同的PixelFormatType,说明他可以支持多种位图格式,除了常见的 RGB32以外,还可以支持比如 kCVPixelFormatType_420YpCbCr8BiPlanarFullRange,这种YUV多平面的数据格式,这个类型里 BiPlanar 表示双平面,说明它是一个 NV12的YUV,包含一个Y平面和一个UV平面。通过CVPixelBufferGetBaseAddressOfPlane可以得到每个平面的数据指针。在得到 Address之前需要调用CVPixelBufferLockBaseAddress,这说明CVPixelBufferRef的内部存储不仅是内存也可能是其它外部存储,比如现存,所以在访问前要lock下来实现地址映射,同时lock也保证了没有读写冲突。
由于是C对象,它是不受 ARC 管理的,就是说要开发者自己来管理引用计数,控制对象的生命周期,可以用CVPixelBufferRetain,CVPixelBufferRelease函数用来加减引用计数,其实和CFRetain和CFRelease是等效的,所以可以用 CFGetRetainCount来查看当前引用计数。
如果要显示 CVPixelBufferRef 里的内容,通常有以下几个思路。
把 CVPixelBufferRef 转换成 UIImage,就可以直接赋值给UIImageView的image属性,显示在UIImageView上,示例代码
+ (UIImage*)uiImageFromPixelBuffer:(CVPixelBufferRef)p {
CIImage* ciImage = [CIImage imageWithCVPixelBuffer:p]; CIContext* context = [CIContext contextWithOptions:@{kCIContextUseSoftwareRenderer : @(YES)}]; CGRect rect = CGRectMake(0, 0, CVPixelBufferGetWidth(p), CVPixelBufferGetHeight(p));
CGImageRef videoImage = [context createCGImage:ciImage fromRect:rect]; UIImage* image = [UIImage imageWithCGImage:videoImage];
CGImageRelease(videoImage); return image;
}
从代码可以看出来,这个转换有点复杂,中间经历了多个步骤,所以性能是很差的,只适合偶尔转换一张图片,用于调试截图等,用于显示视频肯定是不行的。
另一个思路是用OpenGL来渲染,CVPixelBufferRef是可以转换成一个 openGL texture的,方法如下:
CVOpenGLESTextureRef pixelBufferTexture; CVOpenGLESTextureCacheCreateTextureFromImage(kCFAllocatorDefault,
_textureCache,
pixelBuffer,
NULL,
GL_TEXTURE_2D,
GL_RGBA,
width,
height,
GL_BGRA,
GL_UNSIGNED_BYTE,
0,
&pixelBufferTexture);
其中,_textureCache 代表一个 Texture缓存,每次生产的Texture都是从缓存获取的,这样可以省掉反复创建Texture的开销,_textureCache要实现创建好,创建方法如下
CVOpenGLESTextureCacheCreate(kCFAllocatorDefault, NULL, _context, NULL, &_textureCache);
其中 _context 是 openGL的 context,在iOS里就是 EAGLContext *
pixelBufferTexture还不是openGL的Texture,调用CVOpenGLESTextureGetName才能获得在openGL可以使用的Texture ID。
当获得了 Texture ID后就可以用openGL来绘制了,这里推荐用 GLKView 来做绘制
glUseProgram(_shaderProgram); glActiveTexture(GL_TEXTURE0);
glBindTexture(GL_TEXTURE_2D, textureId);
glTexParameterf(GL_TEXTURE_2D, GL_TEXTURE_WRAP_S, GL_CLAMP_TO_EDGE);
glTexParameterf(GL_TEXTURE_2D, GL_TEXTURE_WRAP_T, GL_CLAMP_TO_EDGE);
glTexParameteri(GL_TEXTURE_2D, GL_TEXTURE_MIN_FILTER, GL_LINEAR);
glTexParameteri(GL_TEXTURE_2D, GL_TEXTURE_MAG_FILTER, GL_LINEAR); glDrawArrays(GL_TRIANGLE_FAN, 0, 4);
当然这不是全部代码,完整的绘制openGL代码还有很多,openGL是著名的啰嗦冗长,还有openGL Context创建 shader编译 DataBuffer加载等。
本质上这段代码是为了把 Texture的内容绘制到 openGL的frame buffer里,然后再把frame buffer贴到 CAEAGLayer。
这个从CVPixelBufferRef获取的texture,和原来的CVPixelBufferRef 对象共享同一个存储,就是说如果改变了Texture的内容,那么CVPixelBufferRef的内容也会改变。利用这一点我们就可可以用openGL的绘制方法向CVPixelBufferRef对象输出内容了。比如可以给CVPixelBufferRef的内容加图形特效打水印等。
除了从系统API里获得CVPixelBufferRef外,我们也可以自己创建CVPixelBufferRef
+(CVPixelBufferRef)createPixelBufferWithSize:(CGSize)size {
const void *keys[] = {
kCVPixelBufferOpenGLESCompatibilityKey,
kCVPixelBufferIOSurfacePropertiesKey,
};
const void *values[] = {
(__bridge const void *)([NSNumber numberWithBool:YES]),
(__bridge const void *)([NSDictionary dictionary])
}; OSType bufferPixelFormat = kCVPixelFormatType_32BGRA; CFDictionaryRef optionsDictionary = CFDictionaryCreate(NULL, keys, values, 2, NULL, NULL); CVPixelBufferRef pixelBuffer = NULL;
CVPixelBufferCreate(kCFAllocatorDefault,
size.width,
size.height,
bufferPixelFormat,
optionsDictionary,
&pixelBuffer); CFRelease(optionsDictionary); return pixelBuffer;
}
创建一个 BGRA 格式的PixelBuffer,注意kCVPixelBufferOpenGLESCompatibilityKey和kCVPixelBufferIOSurfacePropertiesKey这两个属性,这是为了实现和openGL兼容,另外有些地方要求CVPixelBufferRef必须是 IO Surface。
CVPixelBufferRef是iOS视频采集处理编码流程的重要中间数据媒介和纽带,理解CVPixelBufferRef有助于写出高性能可靠的视频处理。
要进一步理解CVPixelBufferRef还需要学习 YUV,color range,openGL等知识。
转载自:https://zhuanlan.zhihu.com/p/24762605
CVPixelBufferRef的更多相关文章
- iOS8系统H264视频硬件编解码说明
公司项目原因,接触了一下视频流H264的编解码知识,之前项目使用的是FFMpeg多媒体库,利用CPU做视频的编码和解码,俗称为软编软解.该方法比较通用,但是占用CPU资源,编解码效率不高.一般系统都会 ...
- AVSampleBufferDisplayLayer----转
http://blog.csdn.net/fernandowei/article/details/52179631 目前大多数iOS端的视频渲染都使用OpenGLES,但如果仅仅为了渲染而不做其他的例 ...
- Processing Images
https://developer.apple.com/library/content/documentation/GraphicsImaging/Conceptual/CoreImaging/ci_ ...
- IOS 中的CoreImage框架(framework)
http://www.cnblogs.com/try2do-neo/p/3601546.html coreimage framework 组成 apple 已经帮我们把image的处理分类好,来看看它 ...
- IOS 中的CoreImage框架
IOS 中的CoreImage框架(framework) - time4cnblogs 时间 2014-03-15 00:24:00 博客园-所有随笔区原文 http://www.cnblogs. ...
- iOS AVCaptureVideoDataOutputSampleBufferDelegate 录制视频
iOS AVCaptureVideoDataOutputSampleBufferDelegate 录制视频 应用场景: 使用AVFoundation提供的API, 我们可以从 AVCaptureVid ...
- ios 图片转视频
转自:http://blog.iosxcode4.com/archives/160 用到的FrameWork有: MediaPlayer.framework,QuartzCore.framework, ...
- iOS面向编码|iOSVideoToolbox:读写解码回调函数CVImageBufferRef的YUV图像
iOS面向编码|iOSVideoToolbox:读写解码回调函数CVImageBufferRef的YUV图像 本文档基于H.264的解码,介绍读写Video Toolbox解码回调函数参数CVImag ...
- iOS VideoToolbox硬编H.265(HEVC)H.264(AVC):1 概述
本文档尝试用Video Toolbox进行H.265(HEVC)硬件编码,视频源为iPhone后置摄像头.去年做完硬解H.264,没做编码,技能上感觉有些缺失.正好刚才发现CMFormatDescri ...
- Video Toolbox:读写解码回调函数CVImageBufferRef的YUV图像
本文档基于H.264的解码,介绍读写Video Toolbox解码回调函数参数CVImageBufferRef中的YUV或RGB数据的方法,并给出CVImageBufferRef生成灰度图代码.方便调 ...
随机推荐
- 超强大的PS汉化插件Specs 一键尺寸标注
尺寸标注是大多数设计师必不可少的细节工作,特别是在一些特定的设计图中,标注至关重要.大部分设计大大都直接用CAD标注,其实借助插件,PS也是完全可以搞定常见的尺寸标注的. 插件介绍 这是一款超级强大的 ...
- ES6-Class类上
一.基础认知 构造方法有点类似构造函数,前面学的构造函数是模拟类的,ES6用类即可 不能直接调用Person()报错,和构造函数不同,构造函数不加new调用也不报错: 一般在constructor里面 ...
- AXI 协议翻译介绍
一.介绍 Introduction 本章描述了axis协议的体系结构和协议定义的基本事务.它包含以下部分:•第1-2页关于AXI协议•第1-3页是架构•第1-7页是基本事务•第1-11页的附加功能. ...
- shell 每秒调用某个地址的方法
#!/bin/bash step=1 for (( i = 0; i < 60; i=(i+step) )); do curl http://fn.k6akg6f.bar/chat.php sl ...
- usb 2.0 packet
注意PID[7:0] = {~pid[3:0], pid[3:0]}
- 查询正在执行的SQL的数据库名和表名
创建限制0.5个CPU和0.5G内存的MySQL容器 docker run -itd --name mysql --cpu-quota=50000 --memory 512M --rm -p 3306 ...
- Cesium 结合Echarts绘制航线图
<template> <div id="cesiumContainer"></div> </template> <script ...
- 【OBS Studio】使用 VLC 视频源播放视频报错:Unhandled exception: c0000005
使用 OBS Studio 和 VLC media player 可以实现视频播放列表的推流,参考『OBS如何添加播放列表?』. 但是使用过程中发现使用 VLC 视频源播放视频时,一个视频播放完切换下 ...
- Java DelayQueue包装类
public class DelayQueueWrapper<T> { private TimeUnit timeUnit; private final Long capacity; pr ...
- Unity中的深度测试相关知识与问题
https://www.jianshu.com/p/f420b55edd0b?utm_campaign=hugo