AVCaptureSession】的更多相关文章

获取AVCaptureSession samplebuffer 一像素的 rgb值 typedef unsigned char byte; typedef struct RGBPixel{ byte red, green, blue; } RGBPixel; - (void)captureOutput:(AVCaptureOutput *)captureOutput didOutputSampleBuffer:(CMSampleBufferRef)sampleBuffer fromConnect…
http://stackoverflow.com/questions/14153878/avcapturesession-preset-photo-and-avcapturevideopreviewlayer-size I initialize an AVCaptureSession and I preset it like this : AVCaptureSession *newCaptureSession = [[AVCaptureSession alloc] init];if (YES==…
转载自 http://blog.csdn.net/andy_jiangbin/article/details/19823333 拍照,摄像,载图总结 1 建立Session  2 添加 input  3 添加output  4 开始捕捉 5 为用户显示当前录制状态 6 捕捉 7 结束捕捉 8 参考  1 建立Session  1.1 声明session  AVCaptureSession *session = [[AVCaptureSession alloc] init]; // Add inp…
#import <UIKit/UIKit.h> #import <AVFoundation/AVFoundation.h> #import <AssetsLibrary/AssetsLibrary.h> @interface ViewController : UIViewController<AVCaptureFileOutputRecordingDelegate> @property (strong, nonatomic) AVCaptureSession…
#import <UIKit/UIKit.h> #import <AVFoundation/AVFoundation.h> #import <AssetsLibrary/AssetsLibrary.h> @interface ViewController : UIViewController @property (strong, nonatomic) AVCaptureSession *captureSession; @property (strong, nonatom…
#import <UIKit/UIKit.h> #import <AVFoundation/AVFoundation.h> @interface ViewController : UIViewController @property (nonatomic,strong) AVCaptureSession * captureSession; @property (nonatomic,strong) AVCaptureDeviceInput * videoInput; @end - (…
AVCaptureSession的使用容易freeze的问题 1. http://stackoverflow.com/questions/11905505/avcapturesession-stop-running-take-a-long-long-time 2. http://stackoverflow.com/questions/3517667/immediately-freeze-frame-an-avcapturesession…
关于iOS调用摄像机来获取照片,通常我们都会调用UIImagePickerController来调用系统提供的相机来拍照,这个控件非常好 用.但是有时UIImagePickerController控件无法满足我们的需求,例如我们需要更加复杂的OverlayerView,这时候我们就 要自己构造一个摄像机控件了. 这需要使用AVFoundation.framework这个framework里面的组件了,所以我们先要导入这个头文件,另外还需要的组件官方文档是这么说的: ● An instance o…
AVCaptureSession用来控制来自一个输入设备(AVCaptureDeviceInput)的声音和视频,流入一个输出缓冲区(AVCaptureOutput)的过程. 建立一个AVCaptureSession的过程如下: 1.创建一个新的AVCaptureSession. 2.设置会话的录音.录像质量的预置值. 3.添加必要的输入捕捉设备(通过一个AVCaptureDevice来创建,可以是一个摄像头.麦克风.诸如此类). 4.添加必要的数据输出缓冲区(如AVCaptureStillIm…
// // AudioVideoCaptureViewController.m // live // // Created by lujunjie on 2016/10/31. // Copyright © 2016年 lujunjie. All rights reserved. // #import "AudioVideoCaptureViewController.h" #import <AVFoundation/AVFoundation.h> @interface Au…
AVCaptureSession [IOS开发]拍照,摄像,载图总结 1 建立Session  2 添加 input  3 添加output  4 开始捕捉 5 为用户显示当前录制状态 6 捕捉 7 结束捕捉 8 参考  1 建立Session  1.1 声明session  AVCaptureSession *session = [[AVCaptureSession alloc] init]; // Add inputs and outputs. [session startRunning];…
原文链接 AVCaptureSession阻塞主线程问题 前阵子程序中出现了一个奇怪的 bug,在 iOS 系统上,页面弹出的时候会卡很久,相机始终黑屏,大概6-7秒钟,跟踪具体每个步骤花费时间的时候发现在viewWillDisappear:中开销最大,这其中只调用了一个相机关闭的代码: if ([[self.avCameraManager session] isRunning]) { [[self.avCameraManager session] stopRunning]; } 仔细看了文档之…
开始录制短视频 录制完成 根据项目需求,对视频URL进行处理 基本原理和方法已经完成,具体细节根据项目实际需求再处理…
iOS开发中当我们想要自定义相机拍照或摄像界面时,UIImagePickerController无法满足我们的需求,这时候我们可以使用AVFoundation.framework这个framework里面的组件了,所以我们先要导入<AVFoundation/AVFoundation.h>这个头文件,具体实现如下,首先是视频采集视图器的.h文件,声明需要的对象,如下图所示: 接下来是.m 文件,具体实现,首先是视频采集相关对象的初始化及添加 界面加载完成,开始录制…
本文转载请注明出处 —— polobymulberry-博客园 0x00 - 前言 mulberryAR是我业余时间弄的一个AR引擎,目前主要支持单目视觉SLAM+3D渲染,并且支持iOS端,但是该引擎也能很方便地移植到Android端.slam模块使用的是ORB-SLAM2,3d渲染模块使用的是VVSION渲染引擎.该引擎目前实现的功能为简单的3D模型摆放,用户可以对3D模型进行平移.旋转和缩放. 先放两张mulberryAR的效果图. 0x01 - 单目视觉SLAM模块 单目视觉SLAM模块…
0x00 - 前言 之前做一些移动端的AR应用以及目前看到的一些AR应用,基本上都是这样一个套路:手机背景显示现实场景,然后在该背景上进行图形学绘制.至于图形学绘制时,相机外参的解算使用的是V-SLAM.Marker-Based还是GPS的方法,就不一而足了. 所以说要在手机上进行现实场景的展现也是目前AR应用一个比较重要的模块.一般来说,在移动端,基本上都是使用OpenGL ES进行绘制.所以我们优先考虑使用OpenGL ES进行相机的绘制.当然,有些应用直接利用iOS的UIImage进行相机…
本文来自于腾讯bugly开发者社区,非经作者同意,请勿转载,原文地址:http://bugly.qq.com/bbs/forum.php?mod=viewthread&tid=1277 视频直播这么火,再不学就 out 了. 为了紧跟潮流,本文将向大家介绍一下视频直播中的基本流程和主要的技术点,包括但不限于前端技术. 1. H5 到底能不能做视频直播? 当然可以, H5 火了这么久,涵盖了各个方面的技术. 对于视频录制,可以使用强大的 webRTC(Web Real-Time Communica…
  直播的采集由采集的设备(摄像头.话筒)不同分为视频采集和音频采集,本篇文章会分别介绍. 1.采集步骤   1.创建捕捉会话(AVCaptureSession),iOS调用相机和话筒之前都需要创建捕捉对话,把输入输出设备添加进对话中.   2.往会话中添加视频输入对象(AVCaptureDeviceInput).   3.往会话中添加音频输入对象(AVCaptureDeviceInput).   4.往会话中添加视频输出对象(AVCaptureVideoDataOutput).   5.往会话…
本文来自于腾讯bugly开发者社区,非经作者同意,请勿转载,原文地址:http://dev.qq.com/topic/57a42ee6503dfcb22007ede8 Dev Club 是一个交流移动开发技术,结交朋友,扩展人脉的社群,成员都是经过审核的移动开发工程师.每周都会举行嘉宾分享,话题讨论等活动. 本期,我们邀请了腾讯SNG Web前端开发工程师——吕鸣,为大家分享<H5 视频直播那些事>. 如何加入 Dev Club? 移动端开发经验 >= 2 年,微信扫描下方群管理微信二维…
--iOS多媒体 概览 随着移动互联网的发展,如今的手机早已不是打电话.发短信那么简单了,播放音乐.视频.录音.拍照等都是很常用的功能.在iOS中对于多媒体的支持是非常强大的,无论是音视频播放.录制,还是对麦克风.摄像头的操作都提供了多套API.在今天的文章中将会对这些内容进行一一介绍: 音频 音效 音乐 音频会话 录音 音频队列服务 视频 MPMoviePlayerController MPMoviePlayerViewController AVPlayer 摄像头 UIImagePicker…
我在两个项目中分别使用了ZBarSDK与系统自带的扫码,今天主要介绍一下系统自带的扫码. 1.系统自带的 (1)先声明两个属性 @property (nonatomic,strong)AVCaptureSession *session; //捕捉会话 @property (nonatomic,strong)AVCaptureVideoPreviewLayer *layer; //扫描图层 (2)添加输入设备并检查设备是否支持相机 //添加输入设备并创建捕捉会话 AVCaptureDevice *…
自定义拍照或者录视频的功能,就需要用到AVFoundation框架,目前我只用到了拍照,所以记录下自定义拍照用法,视频用法等用上了再补充,应该是大同小异 demo在这里:https://github.com/Phelthas/TEST_XMLCommon    以拍照过程为例,实现主要包括以下几个部分: 1,首先要判断用户授权: let authorizationStatus = AVCaptureDevice.authorizationStatusForMediaType(AVMediaTyp…
首先导入一个头文件 #import <AVFoundation/AVFoundation.h> 由于后面我们需要将拍摄好的照片写入系统相册中,所以我们在这里还需要导入一个相册需要的头文件 #import <AssetsLibrary/AssetsLibrary.h> 导入头文件后我们需要创建几个相机必须的属性 /** * AVCaptureSession对象来执行输入设备和输出设备之间的数据传递 */ @property (nonatomic, strong) AVCaptureS…
// 导入 AVFoundation.framwork 框架#import "HDCodeViewController.h" #import "HDNormalViewController.h" #import <AVFoundation/AVFoundation.h> @interface HDCodeViewController ()<AVCaptureMetadataOutputObjectsDelegate> @property(st…
iOS 直播-闪光灯的使用 应用场景是这样的,最近公司决定做一款直播类的软件. 在开发中就遇到了不曾使用过的硬件功能-闪光灯. 这篇博客将简单介绍一下闪光灯的使用. // // ViewController.m // iOS torch-test // // Created by caoxu on 16/6/7. // Copyright © 2016年 caoxu. All rights reserved. // #import "ViewController.h" #import…
iOS 直播-获取音频(视频)数据 // // ViewController.m // capture-test // // Created by caoxu on 16/6/3. // Copyright © 2016年 caoxu. All rights reserved. // #import "ViewController.h" #import <AVFoundation/AVFoundation.h> @interface ViewController ()<…
一.二维码的生成 从iOS7开始集成了二维码的生成和读取功能此前被广泛使用的zbarsdk目前不支持64位处理器 生成二维码的步骤:导入CoreImage框架通过滤镜CIFilter生成二维码 二维码的内容(传统的条形码只能放数字):纯文本名片URL // 1. 实例化二维码滤镜 CIFilter *filter = [CIFilter filterWithName:@"CIQRCodeGenerator"]; // 2. 恢复滤镜的默认属性 [filter setDefaults];…
在第一台iPhone时,在app里面整合相机的唯一方法就是使用UIImagePickerController.到了iOS4,发布了更灵活的AVFoundation框架. UIImagePickerController提供了简单的拍照方法,支持所有的基本功能. AVFoundation框架则提供了完全的访问相机的操作权,eg:以编程方式更改硬件参数,或者操纵实时预览图. AVFoundation相关类: AVCaptureDevice 关于相机硬件的接口.被用于控制硬件特性,诸如镜头的位置.曝光.…
公司项目原因,接触了一下视频流H264的编解码知识,之前项目使用的是FFMpeg多媒体库,利用CPU做视频的编码和解码,俗称为软编软解.该方法比较通用,但是占用CPU资源,编解码效率不高.一般系统都会提供GPU或者专用处理器来对视频流进行编解码,也就是硬件编码和解码,简称为硬编解码.苹果在iOS 8.0系统之前,没有开放系统的硬件编码解码功能,不过Mac OS系统一直有,被称为Video ToolBox的框架来处理硬件的编码和解码,终于在iOS 8.0后,苹果将该框架引入iOS系统. 由此,开发…
1.本地音频播放 2.本地视频播放 3.使用UIImagePickerController摄像头拍照,录像,照片库浏览 4.使用AVFunction,AVCaptureVideoDataOutput实时获得视频流照片,开关闪光灯 5.高德地图使用和定位 6.高德地图,地理编码定位和反地理编码 本地音频播放 导入头文件 #import <AVFoundation/AVFoundation.h> #import <MediaPlayer/MediaPlayer.h> import &q…