音频的输入是通过麦克风实现,音频的输出是通过扬声气实现的.在iOS系统中无法直接操控麦克风和扬声器,苹果提供了丰富的音频API. 一,音频API介绍 在iOS和Mac OS X上开发音频应用,主要有两个框架可以使用,AVFoundation是基于Objective-C的高层次框架,被设计成向那此以一般的基本使用方式来使用音频的开发者提供API.而Core Audio是基于C的低层次多个框架的集合,Core Audio可以实现对于音频更加全面的控制,可以实现混合多种声音,编解码音频数据,访问声道元…