视频 -> 帧 浅析
原创:转载请注明出处
关于帧率 首先以下几个概念必须弄清楚
1.一个帧就是一个画面
2.视频有无数个帧组成
3.表达时间的量 CMTime 的定义:
typedef struct { CMTimeValue value; CMTimeScale timescale; CMTimeFlags flags; CMTimeEpoch epoch; } CMTime;
|
CMTimeMake(value, timeScale)
//value当前第几帧, timeScale每秒钟多少帧.当前播放时间value/timeScale
CMTimeMakeWithSeconds(a,b)
//a当前时间,b每秒钟多少帧.
4.每帧图片所占时间 = 粒度 = 帧率 = 1/timeScale
5.时间粒度 = 帧率(Frames per Second, FPS)
转换成绝对时间可以用value/timescale = seconds这个公式来计算
6. 每秒钟多少帧 也就是多少个画面 = timeScale
先贴如何获取第一帧的代码:
1 |
|
这是很不求甚解的做法,有好多问题都没有考虑到。
一般来说,如果我们打算求第x秒 看如上代码,想都不用想的就去把
1 |
|
改成想要的时间了,但是,跑一下就会发现差强人意。
为什么呢?
我们先要说CMTime 是什么东西。
CMTime
CMTime 是一个用来描述视频时间的结构体。
他有两个构造函数: * CMTimeMake * CMTimeMakeWithSeconds
这两个的区别是 * CMTimeMake(a,b) a当前第几帧, b每秒钟多少帧.当前播放时间a/b * CMTimeMakeWithSeconds(a,b) a当前时间,b每秒钟多少帧.
我们引用例子来说明它:
- CMTimeMakeWithSeconds
1 |
|
OUTPUT: {3000/600 = 5.000}
代表当前时间为5s,视频一共有3000帧,一秒钟600帧
- CMTimeMake
1 |
|
OUTPUT: {10000/600 = 16.667}
代表时间为16.667s, 视频一共1000帧,每秒600帧
其实,在我们这里,我们关心的只有最后那个总时间。 换句话说,我们把那个(0, 600)换成(x, 600) 是没问题的… = =!
requestedTimeTolerance
那么为什么,效果差了这么多呢? 我们可以把
1 |
|
返回的 actualTime 输出一下
1 |
|
就会发现时间差的很远。 这是为什么呢。
首先他的 actualTime 使用的 fps * 1000 当每秒的帧率。 顺路普及下fps的获取方法
1 |
|
然后我们来思考为什么要有 requestTime 和 actualTime 呢? 开始我对这个api 很困惑: 为什么我request的时间 不等于 actual
后来查了一下文档。
当你想要一个时间点的某一帧的时候,他会在一个范围内找,如果有缓存,或者有在索引内的关键帧,就直接返回,从而优化性能。
这个定义范围的API就是 requestedTimeToleranceAfter 和 requestedTimeToleranceBefore
如果我们要精确时间,那么只需要
1 |
|
大家都知道一段视频是有无数个帧组成的,一个帧也就是一个画面。我们利用AVFoundation中的AVAssetWriter合成一段视频,而手中的素材可以是一些图片也可以是实时摄像头截取的照片,怎么把这些图片输出成为视频?视频的长度多少?每个图片所占的时间多长?都要通过CMTime这个结构体设置的参数来确定。
从名字可以推测CMTime是个表达时间的量,它的定义为
1
|
typedef struct { CMTimeValue value; CMTimeScale timescale; CMTimeFlags flags; CMTimeEpoch epoch; } CMTime; |
我们需要关心的是前两个成员,value,timescale。第一个是数值,第二个是数值的范围。还是从视频的角度来理解吧,假设现在有一个画面,它出现在第二秒,那么我们即可以用value=2,timescale=1来表达也可以用value=1,timescale=2来表达,区别是第一种情况表示的时间粒度是1秒,而后者是两秒。时间粒度就是我们所说的帧率(Frames per Second, FPS)。要转换成绝对时间可以用value/timescale = seconds这个公式来计算。CMTime有如下两个快捷生成方法:
1
2
3
|
CMTimeMake(a,b) //a当前第几帧, b每秒钟多少帧.当前播放时间a/b CMTimeMakeWithSeconds(a,b) //a当前时间,b每秒钟多少帧. |
那么如何利用这个参数来定义一个视频的画面?其实第一次使用这个参数,我是错误的。在往下继续探讨之前,先介绍个方法。
1
|
- ( BOOL )appendPixelBuffer:(CVPixelBufferRef)pixelBuffer withPresentationTime:(CMTime)presentationTime |
简单来说这个方法把图片的像素缓冲输入给视频合成工具AssetWriter中,而该缓冲在视频中出现的时间由(CMTime)presentationTime这个参数设定。
先说个最简单的例子,我有5张图片,现在我要生成5秒视频,那么很容易推导出每个图片所占的粒度也就是帧率为1秒,那么
1
|
CMTime presentationTime=CMTimeMake(i,1); |
i分别从0到4生成presentationTime再调用appendPixelBuffer就可以实现我们的例子。这个是最简单的。来个稍微有点挑战性的,现在有2张图片,要合成3秒视频,要求是每张图片在视频中出现的时间等长,那怎么办?
咋看不算难,但是我们注意到,CMTimeMake中两个参数都是整型的,不可能出现2/3这样的分数或者小数形式的值。
1
2
3
4
|
CMTime CMTimeMake ( int64_t value, int32_t timescale ); |
解决方法相信都能想到就是把时间粒度做得更细,假设帧率是2,那么第一张图片就从CMTimeMake(0,2)持续到CMTimeMake(2,2)。第二张图片从CMTimeMake(3,2)持续到CMTimeMake(5,2)。如图1:
那么实际当中,我们要把这两张图生成三秒的视频,是不是就要把3秒里的6个粒度都填满图片像素?答案是否定的!这个问题非常tricky。假设我们用appendPixelBuffer方法填充了第一个时间粒度CMTimeMake(0,2),一般理解也就是第一个时间粒度被填满了。这样理解即正确也不正确,第一个粒度确实被填满了,但是后面的粒度也有可能被这个buffer所覆盖,假设我们的第二个像素缓冲填到CMTimeMake(3,2),那么前面的(1,2),(2,2)两个粒度就不是空的了,而是被第一个buffer覆盖。如图2:
但是这种粒度扩展的情况也只是存在于后面有新的buffer进行补充,如果到后面视频就结束了,那么该buffer还是只维持在当前的一个粒度里。所以我们调用- (void)endSessionAtSourceTime:(CMTime)endTime这个方法来结束视频时,即使endTime=CMTimeMake(1000,2),生成的视频也不会是500秒,但是也不是3秒!而是两秒!正如我前面的解释,视频停留在CMTimeMake(3,2)这个粒度就结束了。取巧的办法就是追加最后一个粒度,也就是CMTimeMake(5,2),那么CMTimeMake(4,2)也就被自动填充了。
另外,还有个特点就是这个粒度其实是可以变的,也就是第二张图片插入时timescale可以不是2。利用这个特点,我们可以轻松实现任何两个图片的过度效果。只需要在两个图片之间以更细化的粒度插入经过处理的过度图片。实现代码如下:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
|
//1 CMTime fadeTime = CMTimeMake(1, fps*TransitionFrameCount); //2 for ( int b = 0; b < FramesToWaitBeforeTransition; b++) { presentTime = CMTimeAdd(presentTime, fadeTime); } //3 NSInteger framesToFadeCount = TransitionFrameCount - FramesToWaitBeforeTransition; for ( double j = 1; j < framesToFadeCount; j++) { buffer = [ self crossFadeImage:[array[i] CGImage] toImage:[array[i + 1] CGImage] atSize:CGSizeMake(480, 320) withAlpha:j/framesToFadeCount]; BOOL appendSuccess = [ self appendToAdapter:adaptor pixelBuffer:buffer atTime:presentTime withInput:writerInput]; presentTime = CMTimeAdd(presentTime, fadeTime); NSAssert (appendSuccess, @"Failed to append"); } |
简单解释一下,第一步计算出过度效果的粒度。
第二步,得到过度效果开始的时间,其中CMTimeAdd为把当前时间和过度效果的粒度时间相加,注意到相加的两个CMTime的时间粒度是不一样的,出来的结果的timescale为二者粒度的最小公倍数。
最后,循环增加逐渐过度的效果图片,这里我演示的是通过改变alpha实现的渐变过度。代码很简单:
1
2
3
4
5
|
CGContextDrawImage(context, drawRect, firstImage); CGContextBeginTransparencyLayer(context, nil ); CGContextSetAlpha( context, alpha ); CGContextDrawImage(context, drawRect, secondImage); CGContextEndTransparencyLayer(context); |
把firstImage画到context上,然后覆盖一个透明层,不断调整alpha值把secondImage画上去。
参考链接:
1.http://blog.rpplusplus.me/blog/2013/09/04/ios-avassertimagegenerator/
2.https://zwo28.wordpress.com/2015/03/06/%E8%A7%86%E9%A2%91%E5%90%88%E6%88%90%E4%B8%ADcmtime%E7%9A%84%E7%90%86%E8%A7%A3%EF%BC%8C%E4%BB%A5%E5%8F%8A%E5%88%A9%E7%94%A8cmtime%E5%AE%9E%E7%8E%B0%E8%BF%87%E6%B8%A1%E6%95%88%E6%9E%9C/
视频 -> 帧 浅析的更多相关文章
- [转]android 获取视频帧
本文转自:http://blog.csdn.net/heart_Moving/article/details/17414067 今天做Android视频文件解码,需求:从一个视频文件获取到一帧一帧的图 ...
- 使用X264编码yuv格式的视频帧使用ffmpeg解码h264视频帧
前面一篇博客介绍在centos上搭建点击打开链接ffmpeg及x264开发环境.以下就来问个样例: 1.利用x264库将YUV格式视频文件编码为h264格式视频文件 2.利用ffmpeh库将h264格 ...
- A TensorBoard plugin for visualizing arbitrary tensors in a video as your network trains.Beholder是一个TensorBoard插件,用于在模型训练时查看视频帧。
Beholder is a TensorBoard plugin for viewing frames of a video while your model trains. It comes wit ...
- [SimplePlayer] 3. 视频帧同步
Frame Rate 帧率代表的是每一秒所播放的视频图像数目.通常,视频都会有固定的帧率,具体点地说是每一帧的时间间隔都是一样的,这种情况简称为CFR(Constant Frame Rate);另外一 ...
- C++调用ffmpeg.exe提取视频帧
有时候,我们获得一段视频,需要将其中的每一帧都提取出来,来进行一些相关的处理,这时候我们就可以需要用到ffmpeg.exe来进行视频帧的提取. ffmpeg简介:FFmpeg是一套可以用来记录.转换数 ...
- 基于C#利用ffmpeg提取视频帧
利用ffmepg提取视频帧实际上是利用C#调用ffmepg命令行进行处理对应的视频,然后输出出视频帧 GetPicFromVideo("); static public string Get ...
- FFmpeg进行视频帧提取&音频重采样-Process.waitFor()引发的阻塞超时
由于产品需要对视频做一系列的解析操作,利用FFmpeg命令来完成视频的音频提取.第一帧提取作为封面图片.音频重采样.字幕压缩等功能: 前一篇文章已经记录了FFmpeg在JAVA中的使用-音频提取&am ...
- python opencv 按一定间隔截取视频帧
前言关于opencvOpenCV 是 Intel 开源计算机视觉库 (Computer Version) .它由一系列 C 函数和少量 C++ 类构成,实现了图像处理和计算机视觉方面的很多通用算法. ...
- FFmpeg 入门(1):截取视频帧
本文转自:FFmpeg 入门(1):截取视频帧 | www.samirchen.com 背景 在 Mac OS 上如果要运行教程中的相关代码需要先安装 FFmpeg,建议使用 brew 来安装: // ...
随机推荐
- Linux目录结构及快捷键
1.树形目录结构 2.最顶层:根目录 /bin 二进制可执行命令 /dev 设备特殊文件 /etc 系统管理和配置文件 /etc/rc.d 启动配置文件和脚本 /home 用户主目录的基点 /lib ...
- AUTO_INCREMENT列在InnoDB里如何工作
如果你为一个表指定AUTO_INCREMENT列,在数据词典里的InnoDB表句柄包含一个名为自动增长计数器的计数器,它被用在为该列赋新值.自动增长计数器仅被存储在主内存中,而不是存在磁盘上. Inn ...
- 洛谷-烤鸡-BOSS战-入门综合练习1
题目背景 Background 猪猪hanke得到了一只鸡 题目描述 Description 猪猪Hanke特别喜欢吃烤鸡(本是同畜牲,相煎何太急!)Hanke吃鸡很特别,为什么特别呢?因为他有10 ...
- CSS中background:url(图片) 不能显示的问题
刚刚碰到一个奇怪的问题,这样一段CSS代码: .pho6 { background: url(img/pho6.jpg); } 这段代码居然不能显示出背景图片,路经绝对是没错的代码肯定没有问题, ...
- ios的虚拟键盘与fixed移动端的bug
//$('#search')表单input;$('.search_out')浮动元素 var u = navigator.userAgent, app = navigator.appVersion;v ...
- 基于QTcpSocket和QTcpServer的Tcp通讯以及QDataStream序列化数据
最近要在QT下开发Tcp通讯,发送序列化数据以便于接收. 这里涉及到几个问题: 1.QTcpSocket.QTcpServer的通讯 2.QDataStream序列化数据 多的不说,直接上干货!!! ...
- Spring框架--AOP编程
2 手动实现AOP编程 AOP 面向切面的编程, AOP可以实现"业务代码"与"关注点代码"分离 // 保存一个用户 public void add(User ...
- postgresql 修改属性
up vote2down votefavorite From this article, I tried to update or delete property of a JSONB column: ...
- 拦截asp.net输出流做处理, 拦截HTML文本(asp.net webForm版)
对已经生成了HTML的页面做一些输出到客户端之前的处理 方法的原理是:把Response的输出重定向到自定义的容器内,也就是我们的StringBuilder对象里,在HTML所有的向页面输出都变 成了 ...
- android 获取系统硬件信息
一,首先设置权限访问: <uses-permission android:name="android.permission.READ_PHONE_STATE" /> ...