iOS视频直播初窥:高仿<喵播APP>
视频直播初窥
视频直播,可以分为 采集,前处理,编码,传输, 服务器处理,解码,渲染
采集: iOS系统因为软硬件种类不多, 硬件适配性比较好, 所以比较简单. 而Android端市面上机型众多, 要做些机型的适配工作.PC端是最麻烦的, 各种奇葩摄像头驱动.所以现在很多的中小型直播平台, 都放弃了PC的直播, 更有一些直播平台只做iOS端的视频直播.
前处理: 美颜算法,视频的模糊效果, 水印等都是在这个环节做. 目前iOS端最著名开源框架的毫无疑问就是
GPUImage
.其中内置了125种渲染效果, 还支持各种脚本自定义. 我高仿的喵播
的美颜效果也是基于GPUImage
的.编码: 重难点在于要在分辨率,帧率,码率,GOP等参数设计上找到最佳平衡点。iOS8之后,
Apple
开放了VideoToolbox.framework
, 可以直接进行硬编解码, 这也是为什么现在大多数直播平台最低只支持到iOS8的原因之一. iOS端硬件兼容性比较好, 可以直接采取硬编码. 而Android得硬编码又是一大坑.传输: 这块一般都是交给
CDN
服务商.CDN
只提供带宽和服务器之间的传输, 发送端和接收端的网络连接抖动缓存还是要自己实现的.目前国内最大的CDN
服务商应该是网宿
.服务器处理: 需要在服务器做一些流处理工作, 让推送上来的流适配各个平台各种不同的协议, 比如:RTMP,HLS,FLV...
解码和渲染: 也就即音视频的播放. 解码毫无疑问也必须要硬解码. iOS端兼容较好, Android依然大坑.这块的难点在于音画同步, 目前很多直播平台这块是硬伤.国内比较好的开源项目应该是B站开源的ijkplayer.
斗鱼
就是基于ijkplayer的, 本项目也是基于ijkplayer的.
技术坑 : 降噪, 音频解码器, 蓝牙适配, 回声消除, 信令控制, 登录, 鉴权, 权限管理, 状态管理, 应用消息, 消息推送, 礼物系统, 即时聊天, 支付系统, 统计系统, 数据库, 缓存, 分布式文件存储, 消息队列, 运维系统等等大小不一的坑等你来填!!!
资金坑 : 以带宽为例, 2万人同时在线, 手机码率在600KB, 每个月的带宽费用至少在30万左右. 根据欢聚时代(YY)15年四季度财务报, 他们的带宽成本为人民币1.611亿元, 折合每月5000万+. 人力成本+渠道支出和其他支出就不详谈了.
社会坑: 还得每时每刻与各种黑暗势力斗争, 包括色情, 广告, 刷小号, 刷充值, 告侵权, DDos...(我反编译
喵播
的官方APP, 他们的项目名就叫Shehui
, O(∩_∩)O哈哈~)
项目下载地址
前期准备
项目主要是基于ijkplayer的. 最好是打包成framework
. 原本我准备写一个打包教程, 不过后来在简书上发现了一篇特别详细的打包blog, 分享给大家: http://www.jianshu.com/p/1f06b27b3ac0.
如果你根据教程打包失败了(当然这种几率比较小), 我这还有一份我已经打包好的(Release版), 下载地址:
链接:http://pan.baidu.com/s/1eRVetdK 密码:2dc0
下载后, 直接解压即可.
项目文件结构
Frameworks: 如果文件夹不存在, 点击
classes
选择Show in Finder
, 新建一个即可, 将你打包的或者下载的framework
拖入其中并拉进项目中. 你也可以自己建一个文件夹, 把这个Frameworks
直接delete
即可Profile : 个人中心, 这里面只有一个
ProfileController
. 因为总写重复代码, 都写吐了, 这儿有兴趣的自己写一下吧, So easy...Network : 关于网络连接的工具类. 关于网络的实时监控, 网络状态的切换, 网络请求的工具类都在这里面.
Other : 全局的常量. 当然你也可以在里面将文件结构更加细化.
Home : 包含最新主播, 最热直播, 关注的直播, 礼物排行榜等模块. 还有最重要的视频直播也在这里面了.
ShowTime :见名知意. 视频直播的前处理, 智能美颜和H264硬编码等都在这里面.
Main :
UITabBarController
和UINavigationController
的配置Toos : 这儿命名有点不规范, 这里面放置的都是项目用到的分类
Login : 登录模块
Resource : 项目用到的资源文件
项目详解
tip1: 判读网络类型.
在观看直播的时候, 我们通常都是用WiFi或者3/4G(土豪级别的), 一般用户在进行网络切换的时候, 我们都要给出友善的提示, 告诉TA: 您的网络状态切换到了XX状态. 假设用户从WiFi切换到4G, 你的应用也没个提醒, 导致TA的流量归零甚至欠了运营商一屁股的钱, 我想你的APP的用户体验也就归零或者为负了.
我们可以使用苹果的
Reachability
结合下面的代码实时监听网络状态的改变
- typedef NS_ENUM(NSUInteger, NetworkStates) {
- NetworkStatesNone, // 没有网络
- NetworkStates2G, // 2G
- NetworkStates3G, // 3G
- NetworkStates4G, // 4G
- NetworkStatesWIFI // WIFI
- };
- // 判断网络类型
- + (NetworkStates)getNetworkStates
- {
- NSArray *subviews = [[[[UIApplication sharedApplication] valueForKeyPath:@"statusBar"] valueForKeyPath:@"foregroundView"] subviews];
- // 保存网络状态
- NetworkStates states = NetworkStatesNone;
- for (id child in subviews) {
- if ([child isKindOfClass:NSClassFromString(@"UIStatusBarDataNetworkItemView")]) {
- //获取到状态栏码
- int networkType = [[child valueForKeyPath:@"dataNetworkType"] intValue];
- switch (networkType) {
- case :
- //无网模式
- states = NetworkStatesNone;
- break;
- case :
- states = NetworkStates2G;
- break;
- case :
- states = NetworkStates3G;
- break;
- case :
- states = NetworkStates4G;
- break;
- case :
- {
- states = NetworkStatesWIFI;
- }
- break;
- default:
- break;
- }
- }
- }
- //根据状态选择
- return states;
- }
tip2: 登录模块
如果你多运行几次就会发现, 登录模块背景中播放的视频是2个视频每次随机播放一个的.并且是无限重复的, 也就是说只要你一直呆着登录界面, 就会单视频循环播放当前的视频. 这儿的登录只是几个按钮, 没有具体的登录逻辑, 随便点哪一个按钮都可以进入首页.
我们需要监听视频, 是否播放完成.
- // 监听视频是否播放完成
- [[NSNotificationCenter defaultCenter] addObserver:self selector:@selector(didFinish) name:IJKMPMoviePlayerPlaybackDidFinishNotification object:nil];
如果播放完成了, 让
IJKFFMoviePlayerController
再次play
即可
- - (void)didFinish
- {
- // 播放完之后, 继续重播
- [self.player play];
- }
- tip3: 首页

这种效果相信很多人都看到过或者做过.我简单说一下我的做法(不一定是最佳的, 只是提供一个思路)
一个父控制器
HomeViewController
+三个子控制器(最热/最新/关注. 每个控制器各自管理自己的业务逻辑, 高内聚低耦合). 重写HomeViewController
的loadView
, 将self.view
替换成UIScrollView
. 将三个子控制器的view
添加到UIScrollView
上即可. 其他的效果实现, 请参照我的代码, 都有详细的中文注释.
tip4: 直播(面向观众端)
这个是整个项目的重点之一了.这种直播的布局, 应该是比较主流的了. 我下载的好多直播类APP都是这个项目布局, 包括YY也是这种界面布局.这个里面涉及的东西比较多了, 三言两语真说不清.简单说一下已经实现的效果:
A: 主播的直播
B: 关联主播的视频直播, 默认是只有界面, 没有声音的. 点击该视图可以切换到此主播
C: 下拉切换另一个主播, 这个功能是很常见的. 做法是直播控制器是一个UICollectionViewController
, 只有一个cell
, 且cell.frame
就是self.collectionViewb.bounds
. 我们进入直播控制器的时候, 其实是传进去一个关联主播数组, 每次下拉的时候, 就加载数组里面的主播
D. 查看观众席的观众详情
E. 查看主播详情
F. 足迹: 粒子动画, 后面详解
G. 弹幕: 点击最下方的工具栏第一个按钮可以开启/关闭弹幕, 后面详解
...tip5: 粒子动画实现游客足迹
粒子动画的layer是添加到播放器的view上面的. 下面代码有详细的注释
- CAEmitterLayer *emitterLayer = [CAEmitterLayer layer];
- // 发射器在xy平面的中心位置
- emitterLayer.emitterPosition = CGPointMake(self.moviePlayer.view.frame.size.width-,self.moviePlayer.view.frame.size.height-);
- // 发射器的尺寸大小
- emitterLayer.emitterSize = CGSizeMake(, );
- // 渲染模式
- emitterLayer.renderMode = kCAEmitterLayerUnordered;
- // 开启三维效果
- // _emitterLayer.preservesDepth = YES;
- NSMutableArray *array = [NSMutableArray array];
- // 创建粒子
- for (int i = ; i<; i++) {
- // 发射单元
- CAEmitterCell *stepCell = [CAEmitterCell emitterCell];
- // 粒子的创建速率,默认为1/s
- stepCell.birthRate = ;
- // 粒子存活时间
- stepCell.lifetime = arc4random_uniform() + ;
- // 粒子的生存时间容差
- stepCell.lifetimeRange = 1.5;
- // 颜色
- // fire.color=[[UIColor colorWithRed:0.8 green:0.4 blue:0.2 alpha:0.1]CGColor];
- UIImage *image = [UIImage imageNamed:[NSString stringWithFormat:@"good%d_30x30", i]];
- // 粒子显示的内容
- stepCell.contents = (id)[image CGImage];
- // 粒子的名字
- // [fire setName:@"step%d", i];
- // 粒子的运动速度
- stepCell.velocity = arc4random_uniform() + ;
- // 粒子速度的容差
- stepCell.velocityRange = ;
- // 粒子在xy平面的发射角度
- stepCell.emissionLongitude = M_PI+M_PI_2;;
- // 粒子发射角度的容差
- stepCell.emissionRange = M_PI_2/;
- // 缩放比例
- stepCell.scale = 0.3;
- [array addObject:stepCell];
- }
- emitterLayer.emitterCells = array;
- [self.moviePlayer.view.layer insertSublayer:emitterLayer below:self.catEarView.layer];
tip6: 弹幕
弹幕使用的也是一个第三方轮子BarrageRenderer. 这个开源项目的文档都是中文的, 用法也是很简单的.
基本配置
- _renderer = [[BarrageRenderer alloc] init];
- // 设置弹幕的显示区域. 基于父控件的.
- _renderer.canvasMargin = UIEdgeInsetsMake(ALinScreenHeight * 0.3, , , );
- [self.contentView addSubview:_renderer.view];
弹幕配置
- #pragma mark - 弹幕描述符生产方法
- /// 生成精灵描述 - 过场文字弹幕
- - (BarrageDescriptor *)walkTextSpriteDescriptorWithDirection:(NSInteger)direction
- {
- BarrageDescriptor * descriptor = [[BarrageDescriptor alloc]init];
- descriptor.spriteName = NSStringFromClass([BarrageWalkTextSprite class]);
- descriptor.params[@"text"] = self.danMuText[arc4random_uniform((uint32_t)self.danMuText.count)];
- descriptor.params[@"textColor"] = Color(arc4random_uniform(), arc4random_uniform(), arc4random_uniform());
- descriptor.params[@"speed"] = @( * (double)random()/RAND_MAX+);
- descriptor.params[@"direction"] = @(direction);
- descriptor.params[@"clickAction"] = ^{
- UIAlertView *alertView = [[UIAlertView alloc]initWithTitle:@"提示" message:@"弹幕被点击" delegate:nil cancelButtonTitle:@"取消" otherButtonTitles:nil];
- [alertView show];
- };
- return descriptor;
- }
最后一步, 千万要记得start
[_renderer start];
- #pragma mark - 弹幕描述符生产方法
tip7: 智能美颜效果
现在的直播平台, 美颜是标配. 不然绝大多数的主播都是没法看的.美颜算法需要用到GPU编程, 需要懂图像处理的人. 图像处理这一块我不是很熟悉, 相关的文献也是看得云里雾里的. 所以, 依然使用开源的轮子:GPUImage. 这个开源框架有近1.3W+star(7月5日数据), 真不是盖的, 内置125种滤镜效果, 没有你想不到, 只有你不会用. 我的项目中都有详细的用法, 还是很简单的. 在这里摘抄一份其.h文件的注释. 一方面方便大家修改我项目中的美颜效果, 另一方面也是做个备份.(具体出处我真忘了, 如果有人找到了源地址链接, 可以联系我加上)
- #import "GLProgram.h"
- // Base classes
- #import "GPUImageOpenGLESContext.h"
- #import "GPUImageOutput.h"
- #import "GPUImageView.h"
- #import "GPUImageVideoCamera.h"
- #import "GPUImageStillCamera.h"
- #import "GPUImageMovie.h"
- #import "GPUImagePicture.h"
- #import "GPUImageRawDataInput.h"
- #import "GPUImageRawDataOutput.h"
- #import "GPUImageMovieWriter.h"
- #import "GPUImageFilterPipeline.h"
- #import "GPUImageTextureOutput.h"
- #import "GPUImageFilterGroup.h"
- #import "GPUImageTextureInput.h"
- #import "GPUImageUIElement.h"
- #import "GPUImageBuffer.h"
- // Filters
- #import "GPUImageFilter.h"
- #import "GPUImageTwoInputFilter.h"
- #pragma mark - 调整颜色 Handle Color
- #import "GPUImageBrightnessFilter.h" //亮度
- #import "GPUImageExposureFilter.h" //曝光
- #import "GPUImageContrastFilter.h" //对比度
- #import "GPUImageSaturationFilter.h" //饱和度
- #import "GPUImageGammaFilter.h" //伽马线
- #import "GPUImageColorInvertFilter.h" //反色
- #import "GPUImageSepiaFilter.h" //褐色(怀旧)
- #import "GPUImageLevelsFilter.h" //色阶
- #import "GPUImageGrayscaleFilter.h" //灰度
- #import "GPUImageHistogramFilter.h" //色彩直方图,显示在图片上
- #import "GPUImageHistogramGenerator.h" //色彩直方图
- #import "GPUImageRGBFilter.h" //RGB
- #import "GPUImageToneCurveFilter.h" //色调曲线
- #import "GPUImageMonochromeFilter.h" //单色
- #import "GPUImageOpacityFilter.h" //不透明度
- #import "GPUImageHighlightShadowFilter.h" //提亮阴影
- #import "GPUImageFalseColorFilter.h" //色彩替换(替换亮部和暗部色彩)
- #import "GPUImageHueFilter.h" //色度
- #import "GPUImageChromaKeyFilter.h" //色度键
- #import "GPUImageWhiteBalanceFilter.h" //白平横
- #import "GPUImageAverageColor.h" //像素平均色值
- #import "GPUImageSolidColorGenerator.h" //纯色
- #import "GPUImageLuminosity.h" //亮度平均
- #import "GPUImageAverageLuminanceThresholdFilter.h" //像素色值亮度平均,图像黑白(有类似漫画效果)
- #import "GPUImageLookupFilter.h" //lookup 色彩调整
- #import "GPUImageAmatorkaFilter.h" //Amatorka lookup
- #import "GPUImageMissEtikateFilter.h" //MissEtikate lookup
- #import "GPUImageSoftEleganceFilter.h" //SoftElegance lookup
- #pragma mark - 图像处理 Handle Image
- #import "GPUImageCrosshairGenerator.h" //十字
- #import "GPUImageLineGenerator.h" //线条
- #import "GPUImageTransformFilter.h" //形状变化
- #import "GPUImageCropFilter.h" //剪裁
- #import "GPUImageSharpenFilter.h" //锐化
- #import "GPUImageUnsharpMaskFilter.h" //反遮罩锐化
- #import "GPUImageFastBlurFilter.h" //模糊
- #import "GPUImageGaussianBlurFilter.h" //高斯模糊
- #import "GPUImageGaussianSelectiveBlurFilter.h" //高斯模糊,选择部分清晰
- #import "GPUImageBoxBlurFilter.h" //盒状模糊
- #import "GPUImageTiltShiftFilter.h" //条纹模糊,中间清晰,上下两端模糊
- #import "GPUImageMedianFilter.h" //中间值,有种稍微模糊边缘的效果
- #import "GPUImageBilateralFilter.h" //双边模糊
- #import "GPUImageErosionFilter.h" //侵蚀边缘模糊,变黑白
- #import "GPUImageRGBErosionFilter.h" //RGB侵蚀边缘模糊,有色彩
- #import "GPUImageDilationFilter.h" //扩展边缘模糊,变黑白
- #import "GPUImageRGBDilationFilter.h" //RGB扩展边缘模糊,有色彩
- #import "GPUImageOpeningFilter.h" //黑白色调模糊
- #import "GPUImageRGBOpeningFilter.h" //彩色模糊
- #import "GPUImageClosingFilter.h" //黑白色调模糊,暗色会被提亮
- #import "GPUImageRGBClosingFilter.h" //彩色模糊,暗色会被提亮
- #import "GPUImageLanczosResamplingFilter.h" //Lanczos重取样,模糊效果
- #import "GPUImageNonMaximumSuppressionFilter.h" //非最大抑制,只显示亮度最高的像素,其他为黑
- #import "GPUImageThresholdedNonMaximumSuppressionFilter.h" //与上相比,像素丢失更多
- #import "GPUImageSobelEdgeDetectionFilter.h" //Sobel边缘检测算法(白边,黑内容,有点漫画的反色效果)
- #import "GPUImageCannyEdgeDetectionFilter.h" //Canny边缘检测算法(比上更强烈的黑白对比度)
- #import "GPUImageThresholdEdgeDetectionFilter.h" //阈值边缘检测(效果与上差别不大)
- #import "GPUImagePrewittEdgeDetectionFilter.h" //普瑞维特(Prewitt)边缘检测(效果与Sobel差不多,貌似更平滑)
- #import "GPUImageXYDerivativeFilter.h" //XYDerivative边缘检测,画面以蓝色为主,绿色为边缘,带彩色
- #import "GPUImageHarrisCornerDetectionFilter.h" //Harris角点检测,会有绿色小十字显示在图片角点处
- #import "GPUImageNobleCornerDetectionFilter.h" //Noble角点检测,检测点更多
- #import "GPUImageShiTomasiFeatureDetectionFilter.h" //ShiTomasi角点检测,与上差别不大
- #import "GPUImageMotionDetector.h" //动作检测
- #import "GPUImageHoughTransformLineDetector.h" //线条检测
- #import "GPUImageParallelCoordinateLineTransformFilter.h" //平行线检测
- #import "GPUImageLocalBinaryPatternFilter.h" //图像黑白化,并有大量噪点
- #import "GPUImageLowPassFilter.h" //用于图像加亮
- #import "GPUImageHighPassFilter.h" //图像低于某值时显示为黑
- #pragma mark - 视觉效果 Visual Effect
- #import "GPUImageSketchFilter.h" //素描
- #import "GPUImageThresholdSketchFilter.h" //阀值素描,形成有噪点的素描
- #import "GPUImageToonFilter.h" //卡通效果(黑色粗线描边)
- #import "GPUImageSmoothToonFilter.h" //相比上面的效果更细腻,上面是粗旷的画风
- #import "GPUImageKuwaharaFilter.h" //桑原(Kuwahara)滤波,水粉画的模糊效果;处理时间比较长,慎用
- #import "GPUImageMosaicFilter.h" //黑白马赛克
- #import "GPUImagePixellateFilter.h" //像素化
- #import "GPUImagePolarPixellateFilter.h" //同心圆像素化
- #import "GPUImageCrosshatchFilter.h" //交叉线阴影,形成黑白网状画面
- #import "GPUImageColorPackingFilter.h" //色彩丢失,模糊(类似监控摄像效果)
- #import "GPUImageVignetteFilter.h" //晕影,形成黑色圆形边缘,突出中间图像的效果
- #import "GPUImageSwirlFilter.h" //漩涡,中间形成卷曲的画面
- #import "GPUImageBulgeDistortionFilter.h" //凸起失真,鱼眼效果
- #import "GPUImagePinchDistortionFilter.h" //收缩失真,凹面镜
- #import "GPUImageStretchDistortionFilter.h" //伸展失真,哈哈镜
- #import "GPUImageGlassSphereFilter.h" //水晶球效果
- #import "GPUImageSphereRefractionFilter.h" //球形折射,图形倒立
- #import "GPUImagePosterizeFilter.h" //色调分离,形成噪点效果
- #import "GPUImageCGAColorspaceFilter.h" //CGA色彩滤镜,形成黑、浅蓝、紫色块的画面
- #import "GPUImagePerlinNoiseFilter.h" //柏林噪点,花边噪点
- #import "GPUImage3x3ConvolutionFilter.h" //3x3卷积,高亮大色块变黑,加亮边缘、线条等
- #import "GPUImageEmbossFilter.h" //浮雕效果,带有点3d的感觉
- #import "GPUImagePolkaDotFilter.h" //像素圆点花样
- #import "GPUImageHalftoneFilter.h" //点染,图像黑白化,由黑点构成原图的大致图形
- #pragma mark - 混合模式 Blend
- #import "GPUImageMultiplyBlendFilter.h" //通常用于创建阴影和深度效果
- #import "GPUImageNormalBlendFilter.h" //正常
- #import "GPUImageAlphaBlendFilter.h" //透明混合,通常用于在背景上应用前景的透明度
- #import "GPUImageDissolveBlendFilter.h" //溶解
- #import "GPUImageOverlayBlendFilter.h" //叠加,通常用于创建阴影效果
- #import "GPUImageDarkenBlendFilter.h" //加深混合,通常用于重叠类型
- #import "GPUImageLightenBlendFilter.h" //减淡混合,通常用于重叠类型
- #import "GPUImageSourceOverBlendFilter.h" //源混合
- #import "GPUImageColorBurnBlendFilter.h" //色彩加深混合
- #import "GPUImageColorDodgeBlendFilter.h" //色彩减淡混合
- #import "GPUImageScreenBlendFilter.h" //屏幕包裹,通常用于创建亮点和镜头眩光
- #import "GPUImageExclusionBlendFilter.h" //排除混合
- #import "GPUImageDifferenceBlendFilter.h" //差异混合,通常用于创建更多变动的颜色
- #import "GPUImageSubtractBlendFilter.h" //差值混合,通常用于创建两个图像之间的动画变暗模糊效果
- #import "GPUImageHardLightBlendFilter.h" //强光混合,通常用于创建阴影效果
- #import "GPUImageSoftLightBlendFilter.h" //柔光混合
- #import "GPUImageChromaKeyBlendFilter.h" //色度键混合
- #import "GPUImageMaskFilter.h" //遮罩混合
- #import "GPUImageHazeFilter.h" //朦胧加暗
- #import "GPUImageLuminanceThresholdFilter.h" //亮度阈
- #import "GPUImageAdaptiveThresholdFilter.h" //自适应阈值
- #import "GPUImageAddBlendFilter.h" //通常用于创建两个图像之间的动画变亮模糊效果
- #import "GPUImageDivideBlendFilter.h" //通常用于创建两个图像之间的动画变暗模糊效果
- #pragma mark - 尚不清楚
- #import "GPUImageJFAVoroniFilter.h"
- #import "GPUImageVoroniConsumerFilter.h"
tip8: H264硬编码
如果使用ijkplayer使用硬解码, 一句代码即可.
- // 开启硬解码
- [option setPlayerOptionValue:@"" forKey:@"videotoolbox"];
硬编码的应用场景: 我们要将主播的视频数据传送给服务器
通过摄像头来采集图像,然后将采集到的图像,通过硬编码的方式进行编码,最后编码后的数据将其组合成H264的码流通过网络传播。
摄像头采集图像, iOS系统提供了AVCaptureSession来采集摄像头的图像数据. 项目中我是直接使用GPUImage中的GPUImageVideoCamera
, 直接设置GPUImageVideoCamera
的代理即可, 在其代理方法- (void)willOutputSampleBuffer:(CMSampleBufferRef)sampleBuffer;
进行数据编码即可.
切记一点: 不管是系统自带的
AVCaptureSession
还是GPUImageVideoCamera
采集到的数据都是未经过编码的CMSampleBuffer.
然后将采集到的数据, 用iOS开放的VideoToolbox
进行硬编码. 关于VideoToolbox
硬编解码网上很多教程, 当然最好是看Apple的官方文档, 如果只是硬编码, 看我的项目即可.
关键的编码函数(来自YOLO
直播负责人的开源项目BeautifyFaceDemo)
- void didCompressH264(void *outputCallbackRefCon, void *sourceFrameRefCon, OSStatus status, VTEncodeInfoFlags infoFlags,
- CMSampleBufferRef sampleBuffer )
- {
- if (status != ) return;
- // 采集的未编码数据是否准备好
- if (!CMSampleBufferDataIsReady(sampleBuffer))
- {
- NSLog(@"didCompressH264 data is not ready ");
- return;
- }
- ALinH264Encoder* encoder = (__bridge ALinH264Encoder*)outputCallbackRefCon;
- bool keyframe = !CFDictionaryContainsKey((CFArrayGetValueAtIndex(CMSampleBufferGetSampleAttachmentsArray(sampleBuffer, true), )), kCMSampleAttachmentKey_NotSync);
- if (keyframe) // 关键帧
- {
- CMFormatDescriptionRef format = CMSampleBufferGetFormatDescription(sampleBuffer);
- size_t sparameterSetSize, sparameterSetCount;
- const uint8_t *sparameterSet;
- OSStatus statusCode = CMVideoFormatDescriptionGetH264ParameterSetAtIndex(format, , &sparameterSet, &sparameterSetSize, &sparameterSetCount, );
- if (statusCode == noErr)
- {
- size_t pparameterSetSize, pparameterSetCount;
- const uint8_t *pparameterSet;
- OSStatus statusCode = CMVideoFormatDescriptionGetH264ParameterSetAtIndex(format, , &pparameterSet, &pparameterSetSize, &pparameterSetCount, );
- if (statusCode == noErr)
- {
- encoder->sps = [NSData dataWithBytes:sparameterSet length:sparameterSetSize];
- encoder->pps = [NSData dataWithBytes:pparameterSet length:pparameterSetSize];
- NSLog(@"sps:%@ , pps:%@", encoder->sps, encoder->pps);
- }
- }
- }
- CMBlockBufferRef dataBuffer = CMSampleBufferGetDataBuffer(sampleBuffer);
- size_t length, totalLength;
- char *dataPointer;
- OSStatus statusCodeRet = CMBlockBufferGetDataPointer(dataBuffer, , &length, &totalLength, &dataPointer);
- if (statusCodeRet == noErr) {
- size_t bufferOffset = ;
- static const int AVCCHeaderLength = ;
- while (bufferOffset < totalLength - AVCCHeaderLength)
- {
- uint32_t NALUnitLength = ;
- memcpy(&NALUnitLength, dataPointer + bufferOffset, AVCCHeaderLength);
- NALUnitLength = CFSwapInt32BigToHost(NALUnitLength);
- NSData *data = [[NSData alloc] initWithBytes:(dataPointer + bufferOffset + AVCCHeaderLength) length:NALUnitLength];
- bufferOffset += AVCCHeaderLength + NALUnitLength;
- NSLog(@"sendData-->> %@ %lu", data, bufferOffset);
- }
- }
- }
感触
虽说这个项目是个山寨
的, 高仿
的, 但是依然已经很庞大了. 具体的细节还是需要大家自己去看我的项目源码. 短短几千字还真说不清这么多的知识点. blog的文章名字说了是初窥
, 还真的只是初窥
, 视频直播里面的坑太多. 且行且珍惜...
tip: 本文理论知识部分, 采集自网络. 请记住一句话
talk is cheap show me the code
, 重点在于Demo
项目本身. 理论部分我只是一个搬运工和总结者...
项目编译环境
Xcode7(及以上)
最好是将项目跑在真机上. 有些地方模拟器是不支持的, 也看不到任何效果的, 比如硬编码/智能美颜等, 这些功能模块, 我做了限制的, 需要真机状态才能进行.
项目下载地址
GitHub下载地址
请star和fork. 后续的bug会持续更新到github上的.
有问题可以在简书给我留言/私信, 或者微博(简书个人上首页有我的微博)私信我.
原文链接:http://www.jianshu.com/p/b8db6c142aad
著作权归作者所有,转载请联系作者获得授权,并标注“简书作者”。
iOS视频直播初窥:高仿<喵播APP>的更多相关文章
- 最近这么火的iOS视频直播
快速集成iOS基于RTMP的视频推流 http://www.jianshu.com/p/8ea016b2720e iOS视频直播初窥:高仿<喵播APP> http://www.jiansh ...
- Android&iOS视频直播之旅
现在的移动互联网时代,大家的网速真是越来越快,高带宽的WIFI和覆盖率极大的4G,4G+把手机观看视频直播推上了风口浪尖,越来越多的应用在玩手机视频直播,我们做的应用里也要嵌入视频直播. 这篇文章里我 ...
- IOS 视频直播/智能家居(一行行敲代码,从零开始)lesson:1整体架构
本文转载至 http://blog.csdn.net/u014011807/article/details/47144027 前段时间由于工作需要做了一个视频直播/智能家居类的应用.算是对iOS音视频 ...
- iOS视频直播用到的协议
一 .流媒体 1 - 伪流媒体 1.1 扫盲:边下载边播放1.2 伪流媒体:视频不是实时播放的,先把视频放在数据库,再供客户端访问,比如:优酷,爱奇艺等 1.3 特点: 边下边存,文件会保存.遵守了 ...
- iOS 视频直播
ijkplayer 是一款做视频直播的框架, 基于ffmpeg, 支持 Android 和 iOS, 网上也有很多集成说明, 但是个人觉得还是不够详细, 在这里详细的讲一下在 iOS 中如何集成ijk ...
- iOS视频直播
视频直播技术点 视频直播,可以分为 采集,前处理,编码,传输, 服务器处理,解码,渲染 采集: iOS系统因为软硬件种类不多, 硬件适配性比较好, 所以比较简单. 而Android端市面上机型众多, ...
- iOS播放器、Flutter高仿书旗小说、卡片动画、二维码扫码、菜单弹窗效果等源码
iOS精选源码 全网最详细购物车强势来袭 一款优雅易用的微型菜单弹窗(类似QQ和微信右上角弹窗) swift, UITableView的动态拖动重排CCPCellDragger 高仿书旗小说 Flut ...
- Vue3.0短视频+直播|vue3+vite2+vant3仿抖音界面|vue3.x小视频实例
基于vue3.0构建移动端仿抖音/快手短视频+直播实战项目Vue3-DouYin. 5G时代已来,短视频也越来越成为新一代年轻人的娱乐方式,在这个特殊之年,又将再一次成为新年俗! 基于vue3.x+v ...
- iOS开发之功能模块--高仿Boss直聘的IM界面交互功能
本人公司项目属于社交类,高仿Boss直聘早期的版本,现在Boss直聘界面风格,交互风格都不如Boss直聘以前版本的好看. 本人通过iPhone模拟器和本人真机对聊,将完成的交互功能通过Mac截屏模拟器 ...
随机推荐
- CUBRID学习笔记 27 数据类型4
范围比较 数字和字符串比较 字符串被转为double SELECT i FROM t WHERE i <= all {'11','12'}; i ============= 1 2 3 4 字符 ...
- mysql密码忘记或者不知道,怎么办?
运行cmd: 输入mysql回车,如果成功,将出现MySQL提示符 > 连接权限数据库>use mysql; (>是本来就有的提示符,别忘了最后的分号) 修改改密码:> upd ...
- Python数据类型之列表
一.基本数据类型 整数:int 字符串:str(注:\t等于一个tab键) 布尔值: bool 列表:list (元素的集合) 列表用[] 元祖:tuple 元祖用() 字典:dict注:所有的数据类 ...
- Maven测试
生命周期阶段需要绑定到某个插件的目标才能完成真正的工作,test阶段正是与maven-surefire-plugin的test目标相绑定了,这是一个 内置的绑定. 在默认情况下,maven-suref ...
- [转载] HTTP请求的TCP瓶颈分析
原文: http://bhsc881114.github.io/2015/06/23/HTTP%E8%AF%B7%E6%B1%82%E7%9A%84TCP%E7%93%B6%E9%A2%88%E5%8 ...
- Jmeter使用之常用函数介绍
“_csvRead”函数 CsvRead函数是从外部读取参数,CsvRead函数可以从一个文件中读取多个参数. 下面具体讲一下如何使用csvread函数: 1. 新建一个csv或者text文件 ...
- linux之od命令
od [OPTION]... [FILE]... 把文件用8进制或者其他的格式显示出来.通常用于查看特殊格式文件的内容. 这个命令默认把文件的内容用八进制的形式清晰地写在标准输出上.如果是多个文件 ...
- 网络粘贴---Xcode中可用到的快捷键
快捷键: 1.StoryBoard技巧 当你想直接在view中选择自己想要的元素时,但是又碍于一个view上叠加的元素太多很难直接选中,那么在这时,你同时按住键盘上的shift和 control键,然 ...
- D3.js 第一个程序 HelloWorld
一.HTML 是怎么输出 HelloWorld 的 <html> <head> <meta charset="utf-8"> <title ...
- easyui-datebox 只显示年月
$(function () { $('#niandu').datebox({ onShowPanel: function () {//显示日趋选择对象后再触发弹出月份层的事件,初始化时没有生成月份层 ...